MLコミュニティデーは11月9日です! TensorFlow、JAXからの更新のために私たちに参加し、より多くの詳細をご覧ください

TensorFlowLiteの署名

TensorFlow.orgで表示 GoogleColabで実行 GitHubでソースを表示 ノートブックをダウンロード

TensorFlow Liteは、TensorFlowモデルの入力/出力仕様のTensorFlowLiteモデルへの変換をサポートしています。入出力仕様は「署名」と呼ばれます。 SavedModelを構築するとき、または具象関数を作成するときに、シグニチャを指定できます。

TensorFlow Liteの署名は、次の機能を提供します。

  • これらは、TensorFlowモデルのシグネチャを尊重することにより、変換されたTensorFlowLiteモデルの入力と出力を指定します。
  • 1つのTensorFlowLiteモデルで複数のエントリポイントをサポートできるようにします。

署名は3つの部分で構成されています。

  • 入力:署名の入力名から入力テンソルへの入力のマップ。
  • 出力:署名の出力名から出力テンソルへの出力マッピングのマップ。
  • 署名キー:グラフのエントリポイントを識別する名前。

設定

pip uninstall -y tensorflow keras
pip install tf-nightly
import tensorflow as tf

モデル例

TensorFlowモデルとして、エンコードとデコードなどの2つのタスクがあるとします。

class Model(tf.Module):

  @tf.function(input_signature=[tf.TensorSpec(shape=[None], dtype=tf.float32)])
  def encode(self, x):
    result = tf.strings.as_string(x)
    return {
         "encoded_result": result
    }

  @tf.function(input_signature=[tf.TensorSpec(shape=[None], dtype=tf.string)])
  def decode(self, x):
    result = tf.strings.to_number(x)
    return {
         "decoded_result": result
    }

シグニチャに関しては、上記のTensorFlowモデルは次のように要約できます。

  • サイン

    • キー:エンコード
    • 入力:{"x"}
    • 出力:{"encoded_result"}
  • サイン

    • キー:デコード
    • 入力:{"x"}
    • 出力:{"decoded_result"}

署名を使用してモデルを変換する

TensorFlow LiteコンバーターAPIは、上記の署名情報を変換されたTensorFlowLiteモデルに取り込みます。

この変換機能は、TensorFlowバージョン2.7.0以降のすべてのコンバーターAPIで使用できます。使用例を参照してください。

保存されたモデルから

model = Model()

# Save the model
SAVED_MODEL_PATH = 'content/saved_models/coding'

tf.saved_model.save(
    model, SAVED_MODEL_PATH,
    signatures={
      'encode': model.encode.get_concrete_function(),
      'decode': model.decode.get_concrete_function()
    })

# Convert the saved model using TFLiteConverter
converter = tf.lite.TFLiteConverter.from_saved_model(SAVED_MODEL_PATH)
converter.target_spec.supported_ops = [
    tf.lite.OpsSet.TFLITE_BUILTINS,  # enable TensorFlow Lite ops.
    tf.lite.OpsSet.SELECT_TF_OPS  # enable TensorFlow ops.
]
tflite_model = converter.convert()

# Print the signatures from the converted model
interpreter = tf.lite.Interpreter(model_content=tflite_model)
signatures = interpreter.get_signature_list()
print(signatures)
2021-10-07 13:26:24.918744: W tensorflow/python/util/util.cc:368] Sets are not currently considered sequences, but this may change in the future, so consider avoiding using them.
INFO:tensorflow:Assets written to: content/saved_models/coding/assets
{'decode': {'inputs': ['x'], 'outputs': ['decoded_result']}, 'encode': {'inputs': ['x'], 'outputs': ['encoded_result']} }
2021-10-07 13:26:25.298018: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:363] Ignored output_format.
2021-10-07 13:26:25.298052: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:366] Ignored drop_control_dependency.
2021-10-07 13:26:25.298061: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:372] Ignored change_concat_input_ranges.
2021-10-07 13:26:25.343445: W tensorflow/compiler/mlir/lite/flatbuffer_export.cc:1899] TFLite interpreter needs to link Flex delegate in order to run the model since it contains the following Select TFop(s):
Flex ops: FlexAsString, FlexStringToNumber
Details:
    tf.AsString(tensor<?xf32>) -> (tensor<?x!tf_type.string>) : {device = "", fill = "", precision = -1 : i64, scientific = false, shortest = false, width = -1 : i64}
    tf.StringToNumber(tensor<?x!tf_type.string>) -> (tensor<?xf32>) : {device = "", out_type = f32}
See instructions: https://www.tensorflow.org/lite/guide/ops_select
INFO: Created TensorFlow Lite delegate for select TF ops.
INFO: TfLiteFlexDelegate delegate: 1 nodes delegated out of 1 nodes with 1 partitions.

Kerasモデルから

# Generate a Keras model.
keras_model = tf.keras.Sequential(
    [
        tf.keras.layers.Dense(2, input_dim=4, activation='relu', name='x'),
        tf.keras.layers.Dense(1, activation='relu', name='output'),
    ]
)

# Convert the keras model using TFLiteConverter.
# Keras model converter API uses the default signature automatically.
converter = tf.lite.TFLiteConverter.from_keras_model(keras_model)
tflite_model = converter.convert()

# Print the signatures from the converted model
interpreter = tf.lite.Interpreter(model_content=tflite_model)

signatures = interpreter.get_signature_list()
print(signatures)
INFO:tensorflow:Assets written to: /tmp/tmp7ji0olgi/assets
{'serving_default': {'inputs': ['x_input'], 'outputs': ['output']} }
2021-10-07 13:26:25.967916: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:363] Ignored output_format.
2021-10-07 13:26:25.967951: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:366] Ignored drop_control_dependency.
2021-10-07 13:26:26.029813: W tensorflow/compiler/mlir/lite/flatbuffer_export.cc:704] Cannot get mac count for %0 = "tfl.fully_connected"(%arg0, %cst, %cst_1) {fused_activation_function = "RELU", keep_num_dims = false, weights_format = "DEFAULT"} : (tensor<?x4xf32>, tensor<2x4xf32>, none) -> tensor<?x2xf32>

2021-10-07 13:26:26.029851: W tensorflow/compiler/mlir/lite/flatbuffer_export.cc:704] Cannot get mac count for %1 = "tfl.fully_connected"(%0, %cst_0, %cst_1) {fused_activation_function = "RELU", keep_num_dims = false, weights_format = "DEFAULT"} : (tensor<?x2xf32>, tensor<1x2xf32>, none) -> tensor<?x1xf32>

具体的な機能から

model = Model()

# Convert the concrete functions using TFLiteConverter
converter = tf.lite.TFLiteConverter.from_concrete_functions(
    [model.encode.get_concrete_function(),
     model.decode.get_concrete_function()], model)
converter.target_spec.supported_ops = [
    tf.lite.OpsSet.TFLITE_BUILTINS,  # enable TensorFlow Lite ops.
    tf.lite.OpsSet.SELECT_TF_OPS  # enable TensorFlow ops.
]
tflite_model = converter.convert()

# Print the signatures from the converted model
interpreter = tf.lite.Interpreter(model_content=tflite_model)
signatures = interpreter.get_signature_list()
print(signatures)
INFO:tensorflow:Assets written to: /tmp/tmp63yjmj97/assets
INFO:tensorflow:Assets written to: /tmp/tmp63yjmj97/assets
{'decode': {'inputs': ['x'], 'outputs': ['decoded_result']}, 'encode': {'inputs': ['x'], 'outputs': ['encoded_result']} }
2021-10-07 13:26:26.156465: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:363] Ignored output_format.
2021-10-07 13:26:26.156501: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:366] Ignored drop_control_dependency.
2021-10-07 13:26:26.192370: W tensorflow/compiler/mlir/lite/flatbuffer_export.cc:1899] TFLite interpreter needs to link Flex delegate in order to run the model since it contains the following Select TFop(s):
Flex ops: FlexAsString, FlexStringToNumber
Details:
    tf.AsString(tensor<?xf32>) -> (tensor<?x!tf_type.string>) : {device = "", fill = "", precision = -1 : i64, scientific = false, shortest = false, width = -1 : i64}
    tf.StringToNumber(tensor<?x!tf_type.string>) -> (tensor<?xf32>) : {device = "", out_type = f32}
See instructions: https://www.tensorflow.org/lite/guide/ops_select

署名を実行する

TensorFlow推論APIは、署名ベースの実行をサポートします。

  • 署名で指定された入力と出力の名前を介して入力/出力テンソルにアクセスします。
  • グラフの各エントリポイントを個別に実行し、署名キーで識別します。
  • SavedModelの初期化手順のサポート。

現在、Java、C ++、Pythonの言語バインディングが利用可能です。以下のセクションの例を参照してください。

Java

try (Interpreter interpreter = new Interpreter(file_of_tensorflowlite_model)) {
  // Run encoding signature.
  Map<String, Object> inputs = new HashMap<>();
  inputs.put("x", input);
  Map<String, Object> outputs = new HashMap<>();
  outputs.put("encoded_result", encoded_result);
  interpreter.runSignature(inputs, outputs, "encode");

  // Run decoding signature.
  Map<String, Object> inputs = new HashMap<>();
  inputs.put("x", encoded_result);
  Map<String, Object> outputs = new HashMap<>();
  outputs.put("decoded_result", decoded_result);
  interpreter.runSignature(inputs, outputs, "decode");
}

C ++

SignatureRunner* encode_runner =
    interpreter->GetSignatureRunner("encode");
encode_runner->ResizeInputTensor("x", {100});
encode_runner->AllocateTensors();

TfLiteTensor* input_tensor = encode_runner->input_tensor("x");
float* input = input_tensor->data.f;
// Fill `input`.

encode_runner->Invoke();

const TfLiteTensor* output_tensor = encode_runner->output_tensor(
    "encoded_result");
float* output = output_tensor->data.f;
// Access `output`.

Python

# Load the TFLite model in TFLite Interpreter
interpreter = tf.lite.Interpreter(model_content=tflite_model)

# Print the signatures from the converted model
signatures = interpreter.get_signature_list()
print('Signature:', signatures)

# encode and decode are callable with input as arguments.
encode = interpreter.get_signature_runner('encode')
decode = interpreter.get_signature_runner('decode')

# 'encoded' and 'decoded' are dictionaries with all outputs from the inference.
input = tf.constant([1, 2, 3], dtype=tf.float32)
print('Input:', input)
encoded = encode(x=input)
print('Encoded result:', encoded)
decoded = decode(x=encoded['encoded_result'])
print('Decoded result:', decoded)
Signature: {'decode': {'inputs': ['x'], 'outputs': ['decoded_result']}, 'encode': {'inputs': ['x'], 'outputs': ['encoded_result']} }
Input: tf.Tensor([1. 2. 3.], shape=(3,), dtype=float32)
Encoded result: {'encoded_result': array([b'1.000000', b'2.000000', b'3.000000'], dtype=object)}
Decoded result: {'decoded_result': array([1., 2., 3.], dtype=float32)}

既知の制限

  • TFLiteインタープリターはスレッドセーフを保証しないため、同じインタープリターからの署名ランナーが同時に実行されることはありません。
  • C / iOS / Swiftのサポートはまだ利用できません。

更新

  • バージョン2.7
    • 複数の署名機能が実装されています。
    • バージョン2のすべてのコンバーターAPIは、署名対応のTensorFlowLiteモデルを生成します。
  • バージョン2.5
    • 署名機能はを通じて入手可能ですfrom_saved_model変換API。