Questa pagina è stata tradotta dall'API Cloud Translation.
Switch to English

Guida di TensorFlow Lite

TensorFlow Lite è un set di strumenti per aiutare gli sviluppatori a eseguire modelli TensorFlow su dispositivi mobili, incorporati e IoT. Consente l'inferenza di machine learning sul dispositivo con bassa latenza e dimensioni binarie ridotte.

TensorFlow Lite è costituito da due componenti principali:

  • L' interprete TensorFlow Lite , che esegue modelli appositamente ottimizzati su molti tipi di hardware diversi, inclusi telefoni cellulari, dispositivi Linux incorporati e microcontrollori.
  • Il convertitore TensorFlow Lite , che converte i modelli TensorFlow in un modulo efficiente per l'utilizzo da parte dell'interprete, e può introdurre ottimizzazioni per migliorare le dimensioni e le prestazioni dei binari.

Apprendimento automatico al limite

TensorFlow Lite è progettato per semplificare l'esecuzione di machine learning sui dispositivi, "ai margini" della rete, invece di inviare dati avanti e indietro da un server. Per gli sviluppatori, eseguire l'apprendimento automatico sul dispositivo può aiutare a migliorare:

  • Latenza: non è previsto alcun viaggio di andata e ritorno verso un server
  • Privacy: nessun dato deve lasciare il dispositivo
  • Connettività: non è richiesta una connessione a Internet
  • Consumo energetico: le connessioni di rete richiedono molta energia

TensorFlow Lite funziona con una vasta gamma di dispositivi, da minuscoli microcontrollori a potenti telefoni cellulari.

Iniziare

Per iniziare a lavorare con TensorFlow Lite sui dispositivi mobili, visita Inizia . Se desideri distribuire i modelli TensorFlow Lite ai microcontrollori, visita Microcontrollori .

Caratteristiche principali

  • Interprete ottimizzato per ML sul dispositivo , che supporta una serie di operatori principali ottimizzati per le applicazioni sul dispositivo e con una dimensione binaria ridotta.
  • Supporto della piattaforma diversificato , che copre dispositivi Android e iOS , Linux incorporato e microcontrollori, facendo uso di API della piattaforma per inferenza accelerata.
  • API per più linguaggi tra cui Java, Swift, Objective-C, C ++ e Python.
  • Prestazioni elevate , con accelerazione hardware sui dispositivi supportati, kernel ottimizzati per dispositivo e attivazioni e pregiudizi pre-fusi .
  • Strumenti di ottimizzazione del modello , inclusa la quantizzazione , che possono ridurre le dimensioni e aumentare le prestazioni dei modelli senza sacrificare la precisione.
  • Formato del modello efficiente , utilizzando un FlatBuffer ottimizzato per piccole dimensioni e portabilità.
  • Modelli pre-addestrati per attività di machine learning comuni che possono essere personalizzati per la tua applicazione.
  • Esempi ed esercitazioni che mostrano come distribuire modelli di machine learning su piattaforme supportate.

Flusso di lavoro di sviluppo

Il flusso di lavoro per l'utilizzo di TensorFlow Lite prevede i seguenti passaggi:

  1. Scegli un modello

    Porta il tuo modello TensorFlow, trova un modello online o scegli un modello dai nostri modelli pre-addestrati per farci visita o riaddestrare.

  2. Converti il ​​modello

    Se stai utilizzando un modello personalizzato, utilizza il convertitore TensorFlow Lite e alcune righe di Python per convertirlo nel formato TensorFlow Lite.

  3. Distribuisci sul tuo dispositivo

    Esegui il tuo modello sul dispositivo con l' interprete TensorFlow Lite , con API in molte lingue.

  4. Ottimizza il tuo modello

    Usa il nostro Model Optimization Toolkit per ridurre le dimensioni del tuo modello e aumentare la sua efficienza con un impatto minimo sulla precisione.

Per ulteriori informazioni sull'utilizzo di TensorFlow Lite nel progetto, vedere Introduzione .

Vincoli tecnici

TensorFlow Lite prevede di fornire inferenza sul dispositivo ad alte prestazioni per qualsiasi modello TensorFlow. Tuttavia, l'interprete TensorFlow Lite attualmente supporta un sottoinsieme limitato di operatori TensorFlow che sono stati ottimizzati per l'uso sul dispositivo. Ciò significa che alcuni modelli richiedono passaggi aggiuntivi per funzionare con TensorFlow Lite.

Per sapere quali operatori sono disponibili, vedere Compatibilità con gli operatori .

Se il tuo modello utilizza operatori che non sono ancora supportati dall'interprete TensorFlow Lite, puoi utilizzare TensorFlow Select per includere le operazioni TensorFlow nella tua build TensorFlow Lite. Tuttavia, questo porterà a una maggiore dimensione binaria.

TensorFlow Lite attualmente non supporta la formazione sul dispositivo, ma è inclusa nella nostra roadmap , insieme ad altri miglioramenti pianificati.

Prossimi passi

Vuoi continuare a conoscere TensorFlow Lite? Ecco alcuni passaggi successivi: