Participe do Simpósio Women in ML em 7 de dezembro Inscreva-se agora

Inferência do TensorFlow Lite com metadados

Mantenha tudo organizado com as coleções Salve e categorize o conteúdo com base nas suas preferências.

A inferência de modelos com metadados pode ser tão fácil quanto apenas algumas linhas de código. Os metadados do TensorFlow Lite contêm uma descrição detalhada do que o modelo faz e como usá-lo. Ele pode capacitar os geradores de código para gerar automaticamente o código de inferência para você, como usar o recurso Android Studio ML Binding ou o gerador de código Android do TensorFlow Lite . Ele também pode ser usado para configurar seu pipeline de inferência personalizado.

Ferramentas e bibliotecas

O TensorFlow Lite oferece diversas ferramentas e bibliotecas para atender a diferentes níveis de requisitos de implantação, como segue:

Gerar interface de modelo com geradores de código Android

Há duas maneiras de gerar automaticamente o código wrapper Android necessário para o modelo do TensorFlow Lite com metadados:

  1. O Android Studio ML Model Binding é uma ferramenta disponível no Android Studio para importar o modelo do TensorFlow Lite por meio de uma interface gráfica. O Android Studio definirá automaticamente as configurações do projeto e gerará classes wrapper com base nos metadados do modelo.

  2. O TensorFlow Lite Code Generator é um executável que gera a interface do modelo automaticamente com base nos metadados. Atualmente suporta Android com Java. O código wrapper elimina a necessidade de interagir diretamente com ByteBuffer . Em vez disso, os desenvolvedores podem interagir com o modelo TensorFlow Lite com objetos tipados, como Bitmap e Rect . Os usuários do Android Studio também podem obter acesso ao recurso codegen por meio do Android Studio ML Binding .

Aproveite as APIs prontas para uso com a Biblioteca de tarefas do TensorFlow Lite

A biblioteca de tarefas do TensorFlow Lite oferece interfaces de modelo otimizadas e prontas para uso para tarefas populares de aprendizado de máquina, como classificação de imagens, perguntas e respostas etc. As interfaces de modelo são projetadas especificamente para cada tarefa para obter o melhor desempenho e usabilidade. A Biblioteca de Tarefas funciona em várias plataformas e é compatível com Java, C++ e Swift.

Crie pipelines de inferência personalizados com a Biblioteca de suporte do TensorFlow Lite

A Biblioteca de suporte do TensorFlow Lite é uma biblioteca multiplataforma que ajuda a personalizar a interface do modelo e criar pipelines de inferência. Ele contém variedades de métodos úteis e estruturas de dados para realizar pré/pós-processamento e conversão de dados. Ele também foi projetado para corresponder ao comportamento dos módulos do TensorFlow, como TF.Image e TF.Text, garantindo consistência desde o treinamento até a inferência.

Explore modelos pré-treinados com metadados

Navegue pelos modelos hospedados do TensorFlow Lite e pelo TensorFlow Hub para baixar modelos pré-treinados com metadados para tarefas de visão e texto. Veja também diferentes opções de visualização dos metadados .

Repo GitHub de suporte ao TensorFlow Lite

Visite o repositório GitHub de suporte do TensorFlow Lite para obter mais exemplos e código-fonte. Deixe-nos saber seus comentários criando um novo problema no GitHub .