Python을 사용하는 Linux 기반 장치용 빠른 시작

컬렉션을 사용해 정리하기 내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.

Python에서 TensorFlow Lite를 사용하면 Raspberry PiEdge TPU를 탑재한 Coral 기기와 같이 Linux 기반의 임베디드 기기에서 유익한 결과를 거둘 수 있습니다.

이 페이지에서는 단 몇 분 안에 Python으로 TensorFlow Lite 모델 실행을 시작할 수 있는 방법을 보여줍니다. TensorFlow Lite로 변환된 TensorFlow 모델만 있으면 됩니다. 아직 변환된 모델이 없는 경우, 아래 링크된 예제와 함께 제공된 모델을 사용하여 시도해 볼 수 있습니다.

TensorFlow Lite 런타임 패키지 정보

Python으로 TensorFlow Lite 모델 실행을 빠르게 시작하려면 모든 TensorFlow 패키지 대신 TensorFlow Lite 인터프리터만 설치할 수 있습니다. 이 단순화된 Python 패키지를 tflite_runtime이라고 합니다.

tflite_runtime 패키지의 크기는 전체 tensorflow 패키지의 극히 일부이며 TensorFlow Lite로 추론을 실행하는 데 필요한 최소한의 코드를 포함합니다. 여기에는 기본적으로 Interpreter Python 클래스가 포함됩니다. 이 작은 패키지는 .tflite 모델만 실행하고 대용량 TensorFlow 라이브러리로 디스크 공간을 낭비하지 않으려는 경우에 이상적입니다.

참고: TensorFlow Lite Converter와 같은 다른 Python API에 액세스해야 하는 경우 전체 TensorFlow 패키지를 설치해야 합니다. 예를 들어 Select TF opstflite_runtime 패키지에 포함되어 있지 않습니다. 모델에 Select TF ops에 대한 종속성이 있는 경우, 대신 전체 TensorFlow 패키지를 사용해야 합니다.

Python용 TensorFlow Lite 설치하기

다음과 같이 pip를 사용하여 Linux에 설치할 수 있습니다.

python3 -m pip install tflite-runtime

지원되는 플랫폼

tflite-runtime Python 휠은 사전에 빌드되어 다음 플랫폼에 제공됩니다.

  • Linux armv7l(예: Raspberry Pi OS 32비트를 실행하는 Raspberry Pi 2, 3, 4 및 Zero 2)
  • Linux aarch64(예: Debian ARM64를 실행하는 Raspberry Pi 3, 4)
  • Linux x86_64

다른 플랫폼에서 TensorFlow Lite 모델을 실행하려면 전체 TensorFlow 패키지를 사용하거나 소스로부터 tflite-runtime 패키지를 빌드해야 합니다.

Coral Edge TPU로 TensorFlow를 사용하는 경우에는 대신에 적절한 Coral 설정 문서를 따라야 합니다.

참고: 당사는 더 이상 Debian 패키지 python3-tflite-runtime을 업데이트하지 않습니다. 최신 Debian 패키지는 TF 버전 2.5용이며 이전 지침에 따라 설치할 수 있습니다.

참고: 당사는 더 이상 Windows 및 macOS용으로 사전 빌드된 tflite-runtime 휠을 릴리스하지 않습니다. 이러한 플랫폼의 경우 전체 TensorFlow 패키지를 사용하거나 소스로부터 tflite-runtime 패키지를 빌드해야 합니다.

tflite_runtime을 사용하여 추론 실행하기

tensorflow 모듈에서 Interpreter를 가져오는 대신, 이제 tflite_runtime에서 가져와야 합니다.

예를 들어, 위의 패키지를 설치한 후 label_image.py 파일을 복사하고 실행합니다. (아마도) tensorflow 라이브러리가 설치되어 있지 않기 때문에 이 작업에 실패합니다. 이 문제를 해결하려면 파일의 다음 줄을 편집합니다.

import tensorflow as tf

이제 코드는 다음과 같습니다.

import tflite_runtime.interpreter as tflite

그리고 다음 줄을 변경합니다.

interpreter = tf.lite.Interpreter(model_path=args.model_file)

이제 코드는 다음과 같습니다.

interpreter = tflite.Interpreter(model_path=args.model_file)

이제 label_image.py를 다시 실행합니다. 모두 끝났습니다! 이제 TensorFlow Lite 모델을 실행합니다.

자세히 알아보기