Inferência do TensorFlow Lite com metadados

Inferir modelos com metadados pode ser tão fácil quanto algumas linhas de código. Os metadados do TensorFlow Lite contêm uma descrição detalhada do que o modelo faz e como usá-lo. Ele pode capacitar geradores de código para gerar automaticamente o código de inferência para você, como usar o recurso Android Studio ML Binding ou o gerador de código Android TensorFlow Lite . Também pode ser usado para configurar seu pipeline de inferência personalizado.

Ferramentas e bibliotecas

O TensorFlow Lite oferece diversas ferramentas e bibliotecas para atender a diferentes níveis de requisitos de implantação, como segue:

Gere interface de modelo com geradores de código Android

Existem duas maneiras de gerar automaticamente o código wrapper Android necessário para o modelo TensorFlow Lite com metadados:

  1. Android Studio ML Model Binding é uma ferramenta disponível no Android Studio para importar o modelo TensorFlow Lite por meio de uma interface gráfica. O Android Studio definirá automaticamente as configurações do projeto e gerará classes wrapper com base nos metadados do modelo.

  2. TensorFlow Lite Code Generator é um executável que gera interface de modelo automaticamente com base nos metadados. Atualmente suporta Android com Java. O código wrapper elimina a necessidade de interagir diretamente com ByteBuffer . Em vez disso, os desenvolvedores podem interagir com o modelo TensorFlow Lite com objetos digitados como Bitmap e Rect . Os usuários do Android Studio também podem obter acesso ao recurso codegen por meio do Android Studio ML Binding .

Aproveite APIs prontas para uso com a biblioteca de tarefas do TensorFlow Lite

A biblioteca de tarefas do TensorFlow Lite fornece interfaces de modelo otimizadas e prontas para uso para tarefas populares de aprendizado de máquina, como classificação de imagens, perguntas e respostas, etc. As interfaces de modelo são projetadas especificamente para cada tarefa para obter o melhor desempenho e usabilidade. A Biblioteca de Tarefas funciona em várias plataformas e é compatível com Java, C++ e Swift.

Crie pipelines de inferência personalizados com a biblioteca de suporte do TensorFlow Lite

A Biblioteca de Suporte TensorFlow Lite é uma biblioteca multiplataforma que ajuda a personalizar a interface do modelo e construir pipelines de inferência. Ele contém variedades de métodos utilitários e estruturas de dados para realizar pré/pós processamento e conversão de dados. Ele também foi projetado para corresponder ao comportamento dos módulos do TensorFlow, como TF.Image e TF.Text, garantindo consistência desde o treinamento até a inferência.

Explore modelos pré-treinados com metadados

Navegue pelos modelos hospedados do TensorFlow Lite e pelo TensorFlow Hub para baixar modelos pré-treinados com metadados para tarefas de visão e texto. Veja também diferentes opções de visualização dos metadados .

Repositório GitHub de suporte do TensorFlow Lite

Visite o repositório GitHub de suporte do TensorFlow Lite para obter mais exemplos e código-fonte. Deixe-nos saber seu feedback criando um novo problema no GitHub .