このページは Cloud Translation API によって翻訳されました。
Switch to English

TensorFlowグラフの調査

TensorFlow.orgで見る Google Colabで実行 GitHubでソースを表示

概観

TensorBoardのグラフダッシュボードは、TensorFlowモデルを調べるための強力なツールです。モデルの構造の概念グラフをすばやく表示して、意図した設計と一致していることを確認できます。演算レベルのグラフを表示して、TensorFlowがプログラムをどのように理解するかを理解することもできます。 opレベルのグラフを調べると、モデルの変更方法に関する洞察が得られます。たとえば、トレーニングの進行が予想よりも遅い場合は、モデルを再設計できます。

このチュートリアルでは、グラフ診断データを生成してTensorBoardのグラフダッシュボードで視覚化する方法の概要を示します。 Fashion-MNISTデータセットの単純なKerasシーケンシャルモデルを定義してトレーニングし、モデルグラフを記録して調べる方法を学びます。また、トレースAPIを使用して、新しいtf.functionアノテーションを使用して作成された関数のグラフデータを生成します。

セットアップ

# Load the TensorBoard notebook extension.
%load_ext tensorboard
from datetime import datetime
from packaging import version

import tensorflow as tf
from tensorflow import keras

print("TensorFlow version: ", tf.__version__)
assert version.parse(tf.__version__).release[0] >= 2, \
    "This notebook requires TensorFlow 2.0 or above."
TensorFlow version:  2.2.0

import tensorboard
tensorboard.__version__
'2.2.1'
# Clear any logs from previous runs
!rm -rf ./logs/ 

Kerasモデルを定義する

この例では、分類子は単純な4層の順次モデルです。

# Define the model.
model = keras.models.Sequential([
    keras.layers.Flatten(input_shape=(28, 28)),
    keras.layers.Dense(32, activation='relu'),
    keras.layers.Dropout(0.2),
    keras.layers.Dense(10, activation='softmax')
])

model.compile(
    optimizer='adam',
    loss='sparse_categorical_crossentropy',
    metrics=['accuracy'])

トレーニングデータをダウンロードして準備します。

(train_images, train_labels), _ = keras.datasets.fashion_mnist.load_data()
train_images = train_images / 255.0

モデルのトレーニングとデータのログ

トレーニングの前に、ログディレクトリを指定して、 Keras TensorBoardコールバックを定義します。このコールバックをModel.fit()に渡すことにより、グラフデータがログに記録され、TensorBoardで視覚化できるようになります。

# Define the Keras TensorBoard callback.
logdir="logs/fit/" + datetime.now().strftime("%Y%m%d-%H%M%S")
tensorboard_callback = keras.callbacks.TensorBoard(log_dir=logdir)

# Train the model.
model.fit(
    train_images,
    train_labels, 
    batch_size=64,
    epochs=5, 
    callbacks=[tensorboard_callback])
Epoch 1/5
938/938 [==============================] - 2s 2ms/step - loss: 0.6955 - accuracy: 0.7618
Epoch 2/5
938/938 [==============================] - 2s 2ms/step - loss: 0.4877 - accuracy: 0.8296
Epoch 3/5
938/938 [==============================] - 2s 2ms/step - loss: 0.4458 - accuracy: 0.8414
Epoch 4/5
938/938 [==============================] - 2s 2ms/step - loss: 0.4246 - accuracy: 0.8476
Epoch 5/5
938/938 [==============================] - 2s 2ms/step - loss: 0.4117 - accuracy: 0.8508

<tensorflow.python.keras.callbacks.History at 0x7f656ecc3fd0>

運用レベルのグラフ

TensorBoardを起動し、UIが読み込まれるまで数秒待ちます。上部の[グラフ]をタップして、グラフダッシュボードを選択します。

%tensorboard --logdir logs

デフォルトでは、TensorBoardは演算レベルのグラフを表示します 。 (左側では、「デフォルト」タグが選択されています。)グラフが反転していることに注意してください。データは下から上に流れるため、コードと比べて上下が逆になります。ただし、グラフがKerasモデル定義とほぼ一致しており、他の計算ノードへのエッジが余分にあることがわかります。

グラフは非常に大きいことが多いため、グラフの視覚化を操作できます。

  • スクロールしてズームインおよびズームアウト
  • ドラッグしてパン
  • ダブルクリックするとノードの展開が切り替わります (ノードは他のノードのコンテナになることができます)

ノードをクリックしてメタデータを表示することもできます。これにより、入力、出力、形状、その他の詳細を確認できます。

概念グラフ

TensorBoardは、実行グラフに加えて、 概念グラフも表示します 。これはKerasモデルのみのビューです。これは、保存したモデルを再利用していて、その構造を調べたり検証したりする場合に役立ちます。

概念グラフを表示するには、「keras」タグを選択します。この例では、折りたたまれたSequentialノードが表示されます。ノードをダブルクリックして、モデルの構造を確認します。


tf.functionsのグラフ

これまでの例では、Kerasモデルのグラフについて説明しました。グラフは、Kerasレイヤーを定義し、Model.fit()を呼び出すことによって作成されています。

tf.functionアノテーションを使用して「オートグラフ 、つまりPython計算関数を高性能のTensorFlowグラフに変換する必要がある場合があります。これらの状況では、 TensorFlow Summary Trace APIを使用して、TensorBoardで視覚化するためのサイン入り関数をログに記録します。

サマリートレースAPIを使用するには:

  • 関数を定義してtf.function注釈を付ける
  • 関数呼び出しサイトの直前にtf.summary.trace_on()使用します。
  • profiler=Trueを渡して、プロファイル情報(メモリ、CPU時間)をグラフに追加します。
  • サマリーファイルライターで、 tf.summary.trace_export()を呼び出してログデータを保存します。

その後、TensorBoardを使用して、関数の動作を確認できます。

# The function to be traced.
@tf.function
def my_func(x, y):
  # A simple hand-rolled layer.
  return tf.nn.relu(tf.matmul(x, y))

# Set up logging.
stamp = datetime.now().strftime("%Y%m%d-%H%M%S")
logdir = 'logs/func/%s' % stamp
writer = tf.summary.create_file_writer(logdir)

# Sample data for your function.
x = tf.random.uniform((3, 3))
y = tf.random.uniform((3, 3))

# Bracket the function call with
# tf.summary.trace_on() and tf.summary.trace_export().
tf.summary.trace_on(graph=True, profiler=True)
# Call only one tf.function when tracing.
z = my_func(x, y)
with writer.as_default():
  tf.summary.trace_export(
      name="my_func_trace",
      step=0,
      profiler_outdir=logdir)
%tensorboard --logdir logs/func

これで、TensorBoardで理解されている関数の構造を確認できます。 「プロファイル」ラジオボタンをクリックして、CPUとメモリの統計を表示します。