Inferenza TensorFlow Lite con metadati

Inferire modelli con metadati può essere semplice: bastano poche righe di codice. I metadati di TensorFlow Lite contengono una ricca descrizione di ciò che fa il modello e di come utilizzarlo. Può consentire ai generatori di codice di generare automaticamente il codice di inferenza, ad esempio utilizzando la funzionalità di associazione ML di Android Studio o il generatore di codice Android TensorFlow Lite . Può anche essere utilizzato per configurare la pipeline di inferenza personalizzata.

Strumenti e librerie

TensorFlow Lite fornisce una varietà di strumenti e librerie per soddisfare diversi livelli di requisiti di distribuzione come segue:

Genera l'interfaccia del modello con i generatori di codice Android

Esistono due modi per generare automaticamente il codice wrapper Android necessario per il modello TensorFlow Lite con metadati:

  1. Android Studio ML Model Binding è uno strumento disponibile in Android Studio per importare il modello TensorFlow Lite tramite un'interfaccia grafica. Android Studio configurerà automaticamente le impostazioni per il progetto e genererà classi wrapper in base ai metadati del modello.

  2. TensorFlow Lite Code Generator è un eseguibile che genera automaticamente l'interfaccia del modello in base ai metadati. Attualmente supporta Android con Java. Il codice wrapper elimina la necessità di interagire direttamente con ByteBuffer . Invece, gli sviluppatori possono interagire con il modello TensorFlow Lite con oggetti tipizzati come Bitmap e Rect . Gli utenti di Android Studio possono anche accedere alla funzionalità codegen tramite Android Studio ML Binding .

Sfrutta le API predefinite con la libreria di attività TensorFlow Lite

La libreria di attività TensorFlow Lite fornisce interfacce modello ottimizzate pronte all'uso per le attività più comuni di machine learning, come classificazione delle immagini, domande e risposte, ecc. Le interfacce del modello sono progettate specificamente per ciascuna attività per ottenere le migliori prestazioni e usabilità. La libreria attività funziona su più piattaforme ed è supportata su Java, C++ e Swift.

Crea pipeline di inferenza personalizzate con la libreria di supporto TensorFlow Lite

La libreria di supporto TensorFlow Lite è una libreria multipiattaforma che aiuta a personalizzare l'interfaccia del modello e a creare pipeline di inferenza. Contiene una varietà di metodi di utilità e strutture dati per eseguire l'elaborazione pre/post e la conversione dei dati. È inoltre progettato per adattarsi al comportamento dei moduli TensorFlow, come TF.Image e TF.Text, garantendo coerenza dall'addestramento all'inferenza.

Esplora modelli preaddestrati con metadati

Sfoglia i modelli ospitati di TensorFlow Lite e TensorFlow Hub per scaricare modelli preaddestrati con metadati per attività di visione e di testo. Vedi anche diverse opzioni di visualizzazione dei metadati .

TensorFlow Lite supporta il repository GitHub

Visita il repository GitHub del supporto TensorFlow Lite per ulteriori esempi e codice sorgente. Facci sapere il tuo feedback creando un nuovo problema GitHub .