Comience con la optimización del modelo TensorFlow

1. Elija el mejor modelo para la tarea

Dependiendo de la tarea, deberá hacer un equilibrio entre la complejidad y el tamaño del modelo. Si su tarea requiere una alta precisión, es posible que necesite un modelo grande y complejo. Para tareas que requieren menos precisión, es mejor utilizar un modelo más pequeño porque no sólo utilizan menos espacio en disco y memoria, sino que también son generalmente más rápidos y más eficientes energéticamente.

2. Modelos preoptimizados

Vea si algún modelo preoptimizado de TensorFlow Lite existente proporciona la eficiencia requerida por su aplicación.

3. Herramientas posteriores a la capacitación

Si no puede usar un modelo previamente entrenado para su aplicación, intente usar las herramientas de cuantificación posteriores al entrenamiento de TensorFlow Lite durante la conversión de TensorFlow Lite , que pueden optimizar su modelo de TensorFlow ya entrenado.

Consulte el tutorial de cuantificación posterior al entrenamiento para obtener más información.

Próximos pasos: herramientas para el tiempo de formación

Si las soluciones simples anteriores no satisfacen sus necesidades, es posible que deba utilizar técnicas de optimización del tiempo de capacitación. Optimice aún más con nuestras herramientas de tiempo de capacitación y profundice.