Aide à protéger la Grande barrière de corail avec tensorflow sur Kaggle Rejoignez Défi

Qu'est-ce que l'apprentissage par transfert?

Les modèles d'apprentissage en profondeur sophistiqués ont des millions de paramètres (pondérations) et leur formation à partir de zéro nécessite souvent de grandes quantités de données de ressources informatiques. L'apprentissage par transfert est une technique qui raccourcit une grande partie de cela en prenant un morceau d'un modèle qui a déjà été formé sur une tâche associée et en le réutilisant dans un nouveau modèle.

Par exemple, le didacticiel suivant de cette section vous montrera comment créer votre propre outil de reconnaissance d'image qui tire parti d'un modèle déjà formé pour reconnaître des milliers d'objets différents dans les images. Vous pouvez adapter les connaissances existantes dans le modèle pré-entraîné pour détecter vos propres classes d'images en utilisant beaucoup moins de données d'entraînement que le modèle d'origine requis.

Ceci est utile pour développer rapidement de nouveaux modèles ainsi que pour personnaliser des modèles dans des environnements aux ressources limitées comme les navigateurs et les appareils mobiles.

Le plus souvent, lors de l'apprentissage par transfert, nous n'ajustons pas les poids du modèle d'origine. Au lieu de cela, nous supprimons la couche finale et formons un nouveau modèle (souvent assez peu profond) au-dessus de la sortie du modèle tronqué. C'est la technique que vous verrez illustrée dans les didacticiels de cette section.