![]() | ![]() | ![]() | ![]() |
概要
TensorBoardのグラフダッシュボードには、あなたのTensorFlowモデルを調べるための強力なツールです。モデルの構造の概念グラフをすばやく表示して、意図した設計と一致していることを確認できます。運用レベルのグラフを表示して、TensorFlowがプログラムをどのように理解しているかを理解することもできます。運用レベルのグラフを調べると、モデルを変更する方法についての洞察が得られます。たとえば、トレーニングの進行が予想よりも遅い場合は、モデルを再設計できます。
このチュートリアルでは、グラフ診断データを生成し、TensorBoardのグラフダッシュボードで視覚化する方法の概要を説明します。 Fashion-MNISTデータセットの単純なKerasSequentialモデルを定義およびトレーニングし、モデルグラフをログに記録して調べる方法を学習します。また、新しい機能を使用して作成するためのグラフデータを生成するためにトレースAPIを使用しますtf.function
注釈を。
設定
# Load the TensorBoard notebook extension.
%load_ext tensorboard
from datetime import datetime
from packaging import version
import tensorflow as tf
from tensorflow import keras
print("TensorFlow version: ", tf.__version__)
assert version.parse(tf.__version__).release[0] >= 2, \
"This notebook requires TensorFlow 2.0 or above."
TensorFlow version: 2.2.0
import tensorboard
tensorboard.__version__
'2.2.1'
# Clear any logs from previous runs
rm -rf ./logs/
Kerasモデルを定義する
この例では、分類器は単純な4層のシーケンシャルモデルです。
# Define the model.
model = keras.models.Sequential([
keras.layers.Flatten(input_shape=(28, 28)),
keras.layers.Dense(32, activation='relu'),
keras.layers.Dropout(0.2),
keras.layers.Dense(10, activation='softmax')
])
model.compile(
optimizer='adam',
loss='sparse_categorical_crossentropy',
metrics=['accuracy'])
トレーニングデータをダウンロードして準備します。
(train_images, train_labels), _ = keras.datasets.fashion_mnist.load_data()
train_images = train_images / 255.0
モデルとログデータをトレーニングする
トレーニングの前に、定義Keras TensorBoardコールバックをログディレクトリを指定して、。このコールバックをModel.fit()に渡すことにより、グラフデータがTensorBoardで視覚化するためにログに記録されるようにします。
# Define the Keras TensorBoard callback.
logdir="logs/fit/" + datetime.now().strftime("%Y%m%d-%H%M%S")
tensorboard_callback = keras.callbacks.TensorBoard(log_dir=logdir)
# Train the model.
model.fit(
train_images,
train_labels,
batch_size=64,
epochs=5,
callbacks=[tensorboard_callback])
Epoch 1/5 938/938 [==============================] - 2s 2ms/step - loss: 0.6955 - accuracy: 0.7618 Epoch 2/5 938/938 [==============================] - 2s 2ms/step - loss: 0.4877 - accuracy: 0.8296 Epoch 3/5 938/938 [==============================] - 2s 2ms/step - loss: 0.4458 - accuracy: 0.8414 Epoch 4/5 938/938 [==============================] - 2s 2ms/step - loss: 0.4246 - accuracy: 0.8476 Epoch 5/5 938/938 [==============================] - 2s 2ms/step - loss: 0.4117 - accuracy: 0.8508 <tensorflow.python.keras.callbacks.History at 0x7f656ecc3fd0>
Opレベルのグラフ
TensorBoardを起動し、UIが読み込まれるまで数秒待ちます。上部の[グラフ]をタップして、グラフダッシュボードを選択します。
%tensorboard --logdir logs
オプションでTensorBoard.devを使用して、ホストされた共有可能な実験を作成することもできます。
!tensorboard dev upload \
--logdir logs \
--name "Sample op-level graph" \
--one_shot
デフォルトでは、TensorBoardはOP-レベルのグラフを表示します。 (左側に、「デフォルト」タグが選択されているのがわかります。)グラフが反転していることに注意してください。データは下から上に流れるため、コードと比較して逆さまになります。ただし、グラフがKerasモデルの定義と厳密に一致しており、他の計算ノードに余分なエッジがあることがわかります。
多くの場合、グラフは非常に大きいため、グラフの視覚化を操作できます。
- スクロールは、ズームイン、ズームアウトするには
- パンにドラッグ
- ダブルクリックする(ノードが他のノードのための容器であってもよい)、ノード拡張をトグル
ノードをクリックしてメタデータを表示することもできます。これにより、入力、出力、形状、およびその他の詳細を確認できます。
概念グラフ
実行グラフに加えて、TensorBoardも概念的なグラフを表示します。これは、Kerasモデルのみのビューです。これは、保存されたモデルを再利用していて、その構造を調べたり検証したりする場合に役立つことがあります。
概念グラフを表示するには、「keras」タグを選択します。この例では、崩壊したシーケンシャルノードが表示されます。ノードをダブルクリックして、モデルの構造を確認します。
tf.functionsのグラフ
これまでの例では、Kerasモデルのグラフについて説明してきました。グラフは、Kerasレイヤーを定義し、Model.fit()を呼び出すことによって作成されています。
あなたが使用する必要があるような状況が発生する可能性がありtf.function
に注釈を「サイン」の高性能TensorFlowグラフに、すなわち、変換、Pythonの演算機能を。このような状況のために、あなたはTensorBoardで可視化のためのサイン入りの機能をログに記録するTensorFlow概要トレースAPIを使用します。
Summary Trace APIを使用するには:
- で関数を定義し、注釈を付ける
tf.function
- 使用
tf.summary.trace_on()
すぐにあなたの関数の呼び出しサイトの前に。 - 渡すことによって、グラフにプロファイル情報(メモリ、CPU時間)を追加
profiler=True
- 概要ファイルライター、呼び出しで
tf.summary.trace_export()
ログデータを保存します
次に、TensorBoardを使用して、関数がどのように動作するかを確認できます。
# The function to be traced.
@tf.function
def my_func(x, y):
# A simple hand-rolled layer.
return tf.nn.relu(tf.matmul(x, y))
# Set up logging.
stamp = datetime.now().strftime("%Y%m%d-%H%M%S")
logdir = 'logs/func/%s' % stamp
writer = tf.summary.create_file_writer(logdir)
# Sample data for your function.
x = tf.random.uniform((3, 3))
y = tf.random.uniform((3, 3))
# Bracket the function call with
# tf.summary.trace_on() and tf.summary.trace_export().
tf.summary.trace_on(graph=True, profiler=True)
# Call only one tf.function when tracing.
z = my_func(x, y)
with writer.as_default():
tf.summary.trace_export(
name="my_func_trace",
step=0,
profiler_outdir=logdir)
%tensorboard --logdir logs/func
これで、TensorBoardが理解できる関数の構造を確認できます。 [プロファイル]ラジオボタンをクリックして、CPUとメモリの統計を表示します。