今日のローカルTensorFlowEverywhereイベントの出欠確認!

モデルをエクスポートする

このページでは、TensorFlow 2 の SavedModel 形式でモデルをエクスポートするプロセスについて説明します。この形式は、TensorFlow Hub 上で事前トレーニングされたモデルとモデルピースの共有に推奨される方法です。これは古い TF1 Hub 形式に取って代わり、新しい API セットが付属しています。TF1 Hub 形式のモデルのエクスポートに関する詳細は、TF1 Hub 形式のエクスポートをご覧ください。

概要

SavedModel は TensorFlow のトレーニング済みモデルまたはモデルピース用の標準的なシリアル化形式です。モデルのトレーニング済みの重みとともに、計算を実行するための正確な TensorFlow 演算が含まれます。それを作成したコードに依存することなく使用することが可能です。特に、TensorFlow 演算は共通の基本言語であるため、Keras のような高レベルのモデル構築 API で再利用できます。

Keras から保存する

TensorFlow 2 より、tf.keras.Model.save()tf.keras.models.save_model() は、デフォルトで SavedModel 形式(HDF5 ではありません)になります。保存された SavedModel は hub.load()hub.KerasLayer、およびほかの高レベル API 用の類似アダプタで使用することができます。

include_optimizer=False を使って保存するだけで、完全な Keras モデルを共有することができます。

Keras モデルの一部を共有する場合は、モデルのピースを作成してからそれを保存します。このようなコードは、次のように始めから作成することができます。

piece_to_share = tf.keras.Model(...)
full_model = tf.keras.Sequential([piece_to_share, ...])
full_model.fit(...)
piece_to_share.save(...)

または、その後で共有する部分を切り取ることもできます(フルモデルのレイヤー構造と一致する場合)。

full_model = tf.keras.Model(...)
sharing_input = full_model.get_layer(...).get_output_at(0)
sharing_output = full_model.get_layer(...).get_output_at(0)
piece_to_share = tf.keras.Model(sharing_input, sharing_output)
piece_to_share.save(..., include_optimizer=False)

GitHub の TensorFlow モデルは、BERT に 1 番目のアプローチを使用しています(nlp/bert/bert_models.pynlp/bert/export_tfhub.py をご覧になり、core_modelpretrain_model の分割に注意してください)。また、ResNet には 2 番目のアプローチを使用しています(vision/image_classification/tfhub_export.py をご覧ください)。

低レベル TensorFlow から保存する

この操作には、TensorFlow の SavedModel ガイドを熟知している必要があります。

推論されるシグネチャ以上のものを提供する場合は、再利用可能な SavedModel のインターフェースを実装する必要があります。概念的には、次のように記述されます。

class MyMulModel(tf.train.Checkpoint):
  def __init__(self, v_init):
    super(MyMulModel, self).__init__()
    self.v = tf.Variable(v_init)
    self.variables = [self.v]
    self.trainable_variables = [self.v]
    self.regularization_losses = [
        tf.function(input_signature=[])(lambda: 0.001 * self.v**2),
    ]

  @tf.function(input_signature=[tf.TensorSpec(shape=None, dtype=tf.float32)])
  def __call__(self, inputs):
    return tf.multiply(inputs, self.v)

tf.saved_model.save(MyMulModel(2.0), "/tmp/my_mul")

layer = hub.KerasLayer("/tmp/my_mul")
print(layer([10., 20.]))  # [20., 40.]
layer.trainable = True
print(layer.trainable_weights)  # [2.]
print(layer.losses)  # 0.004

SavedModel 作成者に対する注意事項

TensorFlow Hub で共有する SavedModel を作成する場合は、コンシューマがファインチューニングを行うのか、どのように行うのか、ということを予め考え、ドキュメントにガイダンスを提供するようにしてください。

Keras モデルから保存すると、ファインチューニングのすべての仕組みを機能させることができます(重み正則化損失の保存、トレーニング可能な変数の宣言、training=Truetraining=False の両方の __call__ のトレースなど)。

ソフトマックス確率やトップ k 予測の代わりにロジットを出力するなど、勾配のフローとうまく連携するモデルインターフェースを選択してください。

モデルでドロップアウト、バッチ正規化、またはハイパーパラメータを使用する類似のトレーニングテクニックが使用されている場合は、期待される多数のターゲット問題やバッチサイズに合理的な値に設定してください。(これを執筆している時点では、Keras から保存すると、消費する側でこれらを簡単に調整することはできません。)

各レイヤーの重み正則化器は保存されますが(正則化の強度計数とともに)、オプティマイザ内の重み正則化(tf.keras.optimizers.Ftrl.l1_regularization_strength=...) など)は失われます。SavedModel のコンシューマに適宜アドバイスを提供してください。

TensorFlow Model Garden

TensorFlow Model Garden リポジトリには、tfhub.dev にアップロードするために再利用可能な TF2 SavedModel を作成している、多くの例があります。

コミュニティリクエスト

TensorFlow Hub チームは、tfhub.dev で利用可能なアセットのごく一部を生成しています。モデルの作成は、主に Google や Deepmind の研究者、企業や学術研究機関、ML 愛好家の方々に依存しています。そのため、特定のアセットに対するコミュニティの要求を満たす保証や、新しいアセットが利用可能になるまでの時間の見積もりはできません。

以下のコミュニティモデルリクエスト マイルストーンには、コミュニティからの特定のアセットのリクエストが含まれています。もし、ご自身やお知り合いでアセットを制作して tfhub.dev で共有したいという方があれば、どうぞ提供してご参加ください!