O Dia da Comunidade de ML é dia 9 de novembro! Junte-nos para atualização de TensorFlow, JAX, e mais Saiba mais

Início rápido Python

Usando TensorFlow Lite com Python é ótimo para dispositivos embarcados baseados em Linux, como Raspberry Pi e dispositivos de corais com a borda TPU , entre muitos outros.

Esta página mostra como você pode começar a executar modelos do TensorFlow Lite com Python em apenas alguns minutos. Tudo que você precisa é um modelo TensorFlow convertido para TensorFlow Lite . (Se ainda não tiver um modelo convertido, você pode experimentar usando o modelo fornecido com o exemplo vinculado abaixo.)

Sobre o pacote de tempo de execução TensorFlow Lite

Para iniciar rapidamente a execução de modelos do TensorFlow Lite com Python, você pode instalar apenas o interpretador TensorFlow Lite, em vez de todos os pacotes TensorFlow. Nós chamamos este pacote Python simplificado tflite_runtime .

O tflite_runtime pacote é uma fração do tamanho do total tensorflow pacote e inclui o código mínimo necessário para executar inferências com TensorFlow Lite-principalmente o Interpreter classe Python. Este pequeno pacote é ideal quando tudo que você quer fazer é executar .tflite modelos e espaço em disco desperdício evitar com a grande biblioteca TensorFlow.

Instale o TensorFlow Lite para Python

Se você estiver executando o Debian Linux ou um derivado do Debian (incluindo o Raspberry Pi OS), você deve instalar a partir de nosso repositório de pacotes Debian. Isso requer que você adicione uma nova lista de repo e chave ao seu sistema e, em seguida, instale da seguinte maneira:

echo "deb https://packages.cloud.google.com/apt coral-edgetpu-stable main" | sudo tee /etc/apt/sources.list.d/coral-edgetpu.list
curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
sudo apt-get update
sudo apt-get install python3-tflite-runtime

Para todos os outros sistemas, você pode instalar com pip:

pip3 install --extra-index-url https://google-coral.github.io/py-repo/ tflite_runtime

Se você gostaria de instalar manualmente uma roda Python, você pode selecionar um de todos os tflite_runtime rodas .

Execute uma inferência usando tflite_runtime

Em vez de importar Interpreter do tensorflow módulo, você precisa agora de importá-lo de tflite_runtime .

Por exemplo, depois de instalar o pacote acima, copiar e executar o label_image.py arquivo. Ele vai (provavelmente) falhar porque você não tem o tensorflow biblioteca instalada. Para corrigir isso, edite esta linha do arquivo:

import tensorflow as tf

Em vez disso, lê-se:

import tflite_runtime.interpreter as tflite

E então mude esta linha:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Então, lê-se:

interpreter = tflite.Interpreter(model_path=args.model_file)

Agora execute label_image.py novamente. É isso! Agora você está executando modelos do TensorFlow Lite.

Saber mais

Para mais detalhes sobre o Interpreter API, leia carregar e executar um modelo em Python .

Se você tem um Raspberry Pi, tente o exemplo classify_picamera.py para executar classificação de imagens com o Camera Pi e TensorFlow Lite.

Se você estiver usando um acelerador de Coral ML, confira os exemplos corais em GitHub .

Para converter outros modelos TensorFlow para TensorFlow Lite, leia sobre o TensorFlow Lite Converter .

Se você quer construir tflite_runtime roda, ler Desenvolver TensorFlow Lite Python pacote de roda