Dê os primeiros passos com a otimização do modelo TensorFlow

1. Escolha o melhor modelo para a tarefa

Dependendo da tarefa, você precisará fazer uma troca entre a complexidade e o tamanho do modelo. Se sua tarefa requer alta precisão, você pode precisar de um modelo grande e complexo. Para tarefas que exigem menos precisão, é melhor usar um modelo menor porque eles não apenas usam menos espaço em disco e memória, mas também são geralmente mais rápidos e mais eficientes em termos de energia.

2. Modelos pré-otimizados

Veja se algum modelo pré-otimizado do TensorFlow Lite existente oferece a eficiência exigida pelo seu aplicativo.

3. Ferramentas pós-treinamento

Se você não puder usar um modelo pré-treinado para seu aplicativo, tente usar as ferramentas de quantização pós-treinamento TensorFlow Lite durante a conversão do TensorFlow Lite , que pode otimizar seu modelo TensorFlow já treinado.

Consulte o tutorial de quantização pós-treinamento para saber mais.

Próximas etapas: Ferramentas para treinamento

Se as soluções simples acima não atenderem às suas necessidades, pode ser necessário envolver técnicas de otimização do tempo de treinamento. Otimize ainda mais com nossas ferramentas de tempo de treinamento e se aprofunde.