¿Qué es el aprendizaje por transferencia?

Los modelos sofisticados de aprendizaje profundo tienen millones de parámetros (pesos) y entrenarlos desde cero a menudo requiere grandes cantidades de datos y recursos informáticos. El aprendizaje por transferencia es una técnica que abrevia gran parte de esto tomando una parte de un modelo que ya ha sido entrenado en una tarea relacionada y reutilizándola en un nuevo modelo.

Por ejemplo, el próximo tutorial en esta sección le mostrará cómo construir su propio reconocedor de imágenes que aprovecha un modelo que ya fue entrenado para reconocer miles de diferentes tipos de objetos dentro de las imágenes. Puede adaptar el conocimiento existente en el modelo preentrenado para detectar sus propias clases de imágenes utilizando muchos menos datos de entrenamiento que los que requería el modelo original.

Esto es útil para desarrollar rápidamente nuevos modelos, así como para personalizar modelos en entornos con recursos limitados, como navegadores y dispositivos móviles.

La mayoría de las veces, cuando hacemos transferencia de aprendizaje, no ajustamos los pesos del modelo original. En su lugar, eliminamos la capa final y entrenamos un nuevo modelo (a menudo bastante superficial) sobre la salida del modelo truncado. Esta es la técnica que verá demostrada en los tutoriales de esta sección:

Para ver un ejemplo adicional de transferencia de aprendizaje con TensorFlow.js, consulte Usar un modelo previamente entrenado .