Ajuda a proteger a Grande Barreira de Corais com TensorFlow em Kaggle Junte Desafio

Inferência do TensorFlow Lite com metadados

A inferência de modelos com metadados pode ser tão fácil quanto apenas algumas linhas de código. Os metadados do TensorFlow Lite contêm uma descrição detalhada do que o modelo faz e como usá-lo. Ele pode capacitar os geradores de código para gerar automaticamente o código de inferência para você, como usar o recurso Android Studio ML Binding ou o gerador de código TensorFlow Lite do Android . Ele também pode ser usado para configurar seu pipeline de inferência personalizado.

Ferramentas e bibliotecas

O TensorFlow Lite oferece variedades de ferramentas e bibliotecas para atender a diferentes níveis de requisitos de implantação da seguinte maneira:

Gerar interface de modelo com geradores de código Android

Existem duas maneiras de gerar automaticamente o código de wrapper Android necessário para o modelo TensorFlow Lite com metadados:

  1. O Android Studio ML Model Binding é uma ferramenta disponível no Android Studio para importar o modelo TensorFlow Lite por meio de uma interface gráfica. O Android Studio definirá automaticamente as configurações do projeto e gerará classes de wrapper com base nos metadados do modelo.

  2. O TensorFlow Lite Code Generator é um executável que gera a interface do modelo automaticamente com base nos metadados. Atualmente, ele suporta Android com Java. O código do wrapper elimina a necessidade de interagir diretamente com ByteBuffer . Em vez disso, os desenvolvedores podem interagir com o modelo TensorFlow Lite com objetos digitados, como Bitmap e Rect . Os usuários do Android Studio também podem obter acesso ao recurso codegen por meio do Android Studio ML Binding .

Aproveite as APIs prontas para uso com a Biblioteca de Tarefas do TensorFlow Lite

A Biblioteca de Tarefas do TensorFlow Lite fornece interfaces de modelo otimizadas e prontas para uso para tarefas populares de aprendizado de máquina, como classificação de imagem, pergunta e resposta, etc. As interfaces de modelo são projetadas especificamente para cada tarefa para obter o melhor desempenho e usabilidade. A biblioteca de tarefas funciona em várias plataformas e é compatível com Java, C ++ e Swift.

Crie pipelines de inferência personalizados com a Biblioteca de Suporte do TensorFlow Lite

A biblioteca de suporte do TensorFlow Lite é uma biblioteca de plataforma cruzada que ajuda a personalizar a interface do modelo e construir pipelines de inferência. Ele contém variedades de métodos utilitários e estruturas de dados para realizar pré / pós-processamento e conversão de dados. Ele também foi projetado para corresponder ao comportamento dos módulos do TensorFlow, como TF.Image e TF.Text, garantindo a consistência do treinamento à inferência.

Explore modelos pré-treinados com metadados

Navegue pelos modelos hospedados pelo TensorFlow Lite e pelo TensorFlow Hub para fazer o download de modelos pré-treinados com metadados para tarefas de visão e de texto. Veja também diferentes opções de visualização dos metadados .

TensorFlow Lite Support GitHub repo

Visite o repositório GitHub de suporte do TensorFlow Lite para mais exemplos e código-fonte. Deixe-nos saber seu feedback criando um novo problema no GitHub .