La journée communautaire ML est le 9 novembre ! Rejoignez - nous pour les mises à jour de tensorflow, JAX et plus En savoir plus

Démarrez avec l'optimisation du modèle TensorFlow

1. Choisissez le meilleur modèle pour la tâche

En fonction de la tâche, vous devrez faire un compromis entre la complexité et la taille du modèle. Si votre tâche nécessite une précision élevée, vous aurez peut-être besoin d'un modèle volumineux et complexe. Pour les tâches nécessitant moins de précision, il est préférable d'utiliser un modèle plus petit car non seulement ils utilisent moins d'espace disque et de mémoire, mais ils sont également généralement plus rapides et plus écoénergétiques.

2. Modèles pré-optimisés

Vérifiez si des modèles pré-optimisés TensorFlow Lite existants offrent l'efficacité requise par votre application.

3. Outillage post-formation

Si vous ne pouvez pas utiliser un modèle pré-entraîné pour votre application, essayez d'utiliser les outils de quantification post-formation TensorFlow Lite pendant la conversion TensorFlow Lite , qui peuvent optimiser votre modèle TensorFlow déjà entraîné.

Consultez le didacticiel de quantification post-formation pour en savoir plus.

Prochaines étapes: outillage pendant la formation

Si les solutions simples ci-dessus ne répondent pas à vos besoins, vous devrez peut-être impliquer des techniques d'optimisation du temps de formation. Optimisez davantage avec nos outils de temps de formation et creusez plus loin.