Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Hoja de ruta de TensorFlow Lite

Actualizado: 18 de abril de 2020

Lo siguiente representa una descripción general de alto nivel de nuestro plan 2020. Debe tener en cuenta que esta hoja de ruta puede cambiar en cualquier momento y el orden a continuación no refleja ningún tipo de prioridad. Como cuestión de principio, solemos priorizar los problemas en función del número de usuarios afectados.

Dividimos nuestra hoja de ruta en cuatro segmentos clave: usabilidad, rendimiento, optimización y portabilidad. Le recomendamos encarecidamente que comente sobre nuestra hoja de ruta y nos proporcione comentarios en el grupo de discusión de TF Lite .

Usabilidad

  • Cobertura de operaciones ampliada
    • Adiciones de operaciones priorizadas basadas en los comentarios de los usuarios
  • Mejoras en el uso de operaciones de TensorFlow en TensorFlow Lite
    • Bibliotecas prediseñadas disponibles a través de Bintray (Android) y Cocoapods (iOS)
    • Tamaño binario más pequeño cuando se utilizan operaciones TF seleccionadas a través de la eliminación de operaciones
  • Soporte LSTM / RNN
    • Soporte completo de conversión de LSTM y RNN, incluido el soporte en Keras
  • Bibliotecas de soporte de procesamiento previo y posterior y herramienta de codegen
    • Bloques de construcción de API listos para usar para tareas de AA comunes
    • Admite más modelos (por ejemplo, NLP) y más plataformas (por ejemplo, iOS)
  • Integración de Android Studio
    • Arrastre y suelte modelos TFLite en Android Studio para generar clases de enlace de modelos
  • Control de flujo y entrenamiento en el dispositivo
    • Soporte para la formación en el dispositivo, centrada en la personalización y el aprendizaje por transferencia
  • Herramientas de visualización con TensorBoard
    • Proporcione herramientas mejoradas con TensorBoard
  • Model Maker
    • Admite más tareas, incluida la detección de objetos y las tareas de PNL basadas en BERT
  • Más modelos y ejemplos
    • Más ejemplos para demostrar el uso del modelo, así como nuevas funciones y API, que cubren diferentes plataformas.
  • Biblioteca de tareas
    • Mejore la usabilidad de la biblioteca de tareas de C ++, como proporcionar binarios prediseñados y crear flujos de trabajo fáciles de usar para los usuarios que desean construir a partir del código fuente.
    • Publicar ejemplos de referencia sobre el uso de la biblioteca de tareas.
    • Habilite más tipos de tareas.
    • Mejore el soporte multiplataforma y habilite más tareas para iOS.

Actuación

  • Mejores herramientas
    • Panel de control público para realizar un seguimiento de las ganancias de rendimiento con cada lanzamiento
  • Rendimiento mejorado de la CPU
    • Nueva biblioteca de kernel de punto flotante altamente optimizada para modelos convolucionales
    • Soporte x86 de primera clase
  • Compatibilidad con API NN actualizada
    • Soporte completo para las nuevas funciones, operaciones y tipos de API de Android R NN
  • Optimizaciones de backend de GPU
    • Compatibilidad con Vulkan en Android
    • Soporta modelos enteros cuantificados
  • Backend DSP hexagonal
    • Soporte de cuantificación por canal para todos los modelos creados a través de la cuantificación posterior al entrenamiento
    • Soporte de tamaño de lote de entrada dinámica
    • Mejor cobertura de operaciones, incluido LSTM
  • Backend de Core ML
    • Optimización del tiempo de inicio
    • Soporte de modelos cuantificados dinámicos
    • Compatibilidad con modelos cuantificados Float16
    • Mejor cobertura de operaciones

Mejoramiento

  • Cuantificación

    • Cuantización posterior al entrenamiento para (8b) RNN de punto fijo
    • Cuantificación durante el entrenamiento para (8b) RNN de punto fijo
    • Mejoras de calidad y rendimiento para la cuantificación de rango dinámico posterior al entrenamiento
  • Poda / escasez

    • Soporte de ejecución de modelo escaso en TensorFlow Lite - WIP

    • API de agrupación de peso

Portabilidad

  • Soporte de microcontrolador
    • Agregue soporte para una variedad de casos de uso de arquitectura MCU de 32 bits para clasificación de voz e imágenes
    • Código de muestra y modelos para datos de audio y visión
    • Soporte operativo completo TF Lite en microcontroladores
    • Soporte para más plataformas, incluido el soporte de CircuitPython