Premiers pas avec l'optimisation du modèle TensorFlow

1. Choisissez le meilleur modèle pour la tâche

Selon la tâche, vous devrez faire un compromis entre la complexité et la taille du modèle. Si votre tâche nécessite une grande précision, vous aurez peut-être besoin d'un modèle volumineux et complexe. Pour les tâches nécessitant moins de précision, il est préférable d'utiliser un modèle plus petit car non seulement ils utilisent moins d'espace disque et de mémoire, mais ils sont aussi généralement plus rapides et plus économes en énergie.

2. Modèles pré-optimisés

Vérifiez si des modèles pré-optimisés TensorFlow Lite existants offrent l'efficacité requise par votre application.

3. Outillage post-formation

Si vous ne pouvez pas utiliser un modèle pré-entraîné pour votre application, essayez d'utiliser les outils de quantification post-entraînement TensorFlow Lite lors de la conversion TensorFlow Lite , ce qui peut optimiser votre modèle TensorFlow déjà entraîné.

Consultez le didacticiel de quantification post-formation pour en savoir plus.

Prochaines étapes : outillage du temps de formation

Si les solutions simples ci-dessus ne répondent pas à vos besoins, vous devrez peut-être impliquer des techniques d'optimisation du temps de formation. Optimisez davantage avec nos outils de temps de formation et approfondissez vos connaissances.