มีคำถาม? เชื่อมต่อกับชุมชนที่ฟอรัม TensorFlow เยี่ยมชมฟอรัม

ตัวแปลง TensorFlow Lite

ตัวแปลง TensorFlow Lite ใช้โมเดล TensorFlow และสร้างโมเดล TensorFlow Lite (รูปแบบ FlatBuffer ที่ ปรับให้เหมาะสม ซึ่ง ระบุโดยนามสกุลไฟล์. .tflite ) คุณมีสองตัวเลือกต่อไปนี้สำหรับการใช้ตัวแปลง:

  1. Python API ( แนะนำ ): ทำให้ง่ายต่อการแปลงโมเดลเป็นส่วนหนึ่งของไปป์ไลน์การพัฒนาโมเดลใช้การเพิ่มประสิทธิภาพเพิ่มข้อมูลเมตาและมีคุณสมบัติอื่น ๆ อีกมากมาย
  2. บรรทัดคำสั่ง : รองรับการแปลงโมเดลพื้นฐานเท่านั้น

เวิร์กโฟลว์ตัวแปลง TFLite

Python API

รหัสตัวช่วย: ในการระบุเวอร์ชัน TensorFlow ที่ติดตั้งให้รันการ print(tf.__version__) และเรียนรู้เพิ่มเติมเกี่ยวกับ API ตัวแปลง TensorFlow Lite ให้เรียกใช้การ print(help(tf.lite.TFLiteConverter))

หากคุณ ติดตั้ง TensorFlow 2.x คุณมีสองตัวเลือกต่อไปนี้: ( หากคุณ ติดตั้ง TensorFlow 1.x โปรดดู Github )

ตัวอย่างต่อไปนี้แสดงวิธีการแปลง SavedModel เป็นโมเดล TensorFlow Lite

import tensorflow as tf

# Convert the model
converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) # path to the SavedModel directory
tflite_model = converter.convert()

# Save the model.
with open('model.tflite', 'wb') as f:
  f.write(tflite_model)

แปลงโมเดล Keras

ตัวอย่างต่อไปนี้แสดงวิธีการแปลงโมเดล Keras เป็นโมเดล TensorFlow Lite

import tensorflow as tf

# Create a model using high-level tf.keras.* APIs
model = tf.keras.models.Sequential([
    tf.keras.layers.Dense(units=1, input_shape=[1]),
    tf.keras.layers.Dense(units=16, activation='relu'),
    tf.keras.layers.Dense(units=1)
])
model.compile(optimizer='sgd', loss='mean_squared_error') # compile the model
model.fit(x=[-1, 0, 1], y=[-3, -1, 1], epochs=5) # train the model
# (to generate a SavedModel) tf.saved_model.save(model, "saved_model_keras_dir")

# Convert the model.
converter = tf.lite.TFLiteConverter.from_keras_model(model)
tflite_model = converter.convert()

# Save the model.
with open('model.tflite', 'wb') as f:
  f.write(tflite_model)

แปลงฟังก์ชันคอนกรีต

ตัวอย่างต่อไปนี้แสดงวิธีการแปลง ฟังก์ชันคอนกรีต เป็นแบบจำลอง TensorFlow Lite

import tensorflow as tf

# Create a model using low-level tf.* APIs
class Squared(tf.Module):
  @tf.function
  def __call__(self, x):
    return tf.square(x)
model = Squared()
# (ro run your model) result = Squared(5.0) # This prints "25.0"
# (to generate a SavedModel) tf.saved_model.save(model, "saved_model_tf_dir")
concrete_func = model.__call__.get_concrete_function()

# Convert the model
converter = tf.lite.TFLiteConverter.from_concrete_functions([concrete_func])
tflite_model = converter.convert()

# Save the model.
with open('model.tflite', 'wb') as f:
  f.write(tflite_model)

คุณสมบัติอื่น ๆ

  • ใช้ การเพิ่มประสิทธิภาพ การเพิ่มประสิทธิภาพทั่วไปที่ใช้คือ การหาปริมาณหลังการฝึกอบรม ซึ่งสามารถลดเวลาในการตอบสนองและขนาดของโมเดลของคุณได้มากขึ้นโดยสูญเสียความแม่นยำน้อยที่สุด

  • จัดการการดำเนินการที่ไม่รองรับ คุณมีตัวเลือกต่อไปนี้หากโมเดลของคุณมีตัวดำเนินการ:

    1. รองรับใน TensorFlow แต่ไม่รองรับใน TensorFlow Lite: หากคุณมีข้อ จำกัด ด้านขนาดคุณต้อง สร้างตัวดำเนินการ TensorFlow Lite มิฉะนั้นให้ ใช้ตัวดำเนินการ TensorFlow ในโมเดล TensorFlow Lite ของคุณ

    2. ไม่รองรับใน TensorFlow: คุณต้อง สร้างตัวดำเนินการ TensorFlow จากนั้น สร้างตัวดำเนินการ TensorFlow Lite หากคุณไม่ประสบความสำเร็จในการสร้างตัวดำเนินการ TensorFlow หรือไม่ต้องการสร้างตัวดำเนินการ ( ไม่แนะนำให้ดำเนินการด้วยความระมัดระวัง ) คุณยังคงสามารถแปลงได้โดยใช้เมธอด register_custom_opdefs จากนั้น สร้างตัวดำเนินการ TensorFlow Lite โดยตรง เมธอด register_custom_opdefs รับรายการสตริงที่มี OpDef ด้านล่างนี้เป็นตัวอย่างของ TFLiteAwesomeCustomOp มี 1 อินพุต 1 เอาต์พุตและ 2 แอตทริบิวต์:

        import tensorflow as tf
      
        custom_opdef = """name: 'TFLiteAwesomeCustomOp' input_arg:
        { name: 'In' type: DT_FLOAT } output_arg: { name: 'Out' type: DT_FLOAT }
        attr : { name: 'a1' type: 'float'} attr : { name: 'a2' type: 'list(float)'}"""
      
        # Register custom opdefs before the invocation of converter API.
        tf.lite.python.convert.register_custom_opdefs([custom_opdef])
      
        converter = tf.lite.TFLiteConverter.from_saved_model(...)
        converter.allow_custom_ops = True
      

เครื่องมือบรรทัดคำสั่ง

ขอแนะนำอย่างยิ่งให้คุณใช้ Python API ที่ ระบุไว้ข้างต้นแทนหากเป็นไปได้

หากคุณ ติดตั้ง TensorFlow 2.x จาก pip ให้ใช้คำสั่ง tflite_convert ดังนี้: ( หากคุณ ติดตั้ง TensorFlow 2.x จากแหล่งที่มา คุณสามารถแทนที่ ' tflite_convert ' ด้วย ' bazel run //tensorflow/lite/python:tflite_convert -- 'ในส่วนต่อไปนี้และหากคุณได้ ติดตั้ง TensorFlow 1.x แล้วให้อ้างถึง Github ( ข้อมูลอ้างอิง ตัวอย่าง ))

tflite_convert : หากต้องการดูแฟล็กที่มีอยู่ทั้งหมดให้ใช้คำสั่งต่อไปนี้:

$ tflite_convert --help

`--output_file`. Type: string. Full path of the output file.
`--saved_model_dir`. Type: string. Full path to the SavedModel directory.
`--keras_model_file`. Type: string. Full path to the Keras H5 model file.
`--enable_v1_converter`. Type: bool. (default False) Enables the converter and flags used in TF 1.x instead of TF 2.x.

You are required to provide the `--output_file` flag and either the `--saved_model_dir` or `--keras_model_file` flag.

การแปลง SavedModel

tflite_convert \
  --saved_model_dir=/tmp/mobilenet_saved_model \
  --output_file=/tmp/mobilenet.tflite

การแปลงโมเดล Keras H5

tflite_convert \
  --keras_model_file=/tmp/mobilenet_keras_model.h5 \
  --output_file=/tmp/mobilenet.tflite

ขั้นตอนถัดไป

  • เพิ่ม ข้อมูลเมตา ซึ่งช่วยให้สร้างโค้ด Wrapper เฉพาะแพลตฟอร์มได้ง่ายขึ้นเมื่อปรับใช้โมเดลบนอุปกรณ์
  • ใช้ตัว แปล TensorFlow Lite เพื่อเรียกใช้การอนุมานบนอุปกรณ์ไคลเอนต์ (เช่นอุปกรณ์เคลื่อนที่แบบฝังตัว)