このページは Cloud Translation API によって翻訳されました。
Switch to English

ノートブックでのTensorBoardの使用

TensorFlow.orgで見る Google Colabで実行 GitHubでソースを表示する

TensorBoardは、 ColabJupyterなどのノートブックエクスペリエンス内で直接使用できます。これは、結果を共有し、TensorBoardを既存のワークフローに統合し、ローカルに何もインストールせずにTensorBoardを使用するのに役立ちます。

セットアップ

TF 2.0をインストールし、TensorBoardノートブック拡張機能を読み込むことから始めます。

Jupyterユーザーの場合 JupyterとTensorBoardを同じvirtualenvにインストールしている場合は、準備完了です。グローバルなJupyterインストールや、さまざまなConda / virtualenv環境用のカーネルなど、より複雑な設定を使用している場合は、 tensorboardバイナリがJupyterノートブックコンテキスト内のPATHにあることを確認する必要があります。これを行う1つの方法は、 kernel_specを変更して、 ここで説明するように 、環境のbinディレクトリをPATHの前にkernel_specすることです

TensorFlowのnightlyを使用してJupyter Notebookサーバーの Dockerイメージを実行している場合は、ノートブックのポートだけでなく、TensorBoardのポートも公開する必要があります。

したがって、次のコマンドでコンテナを実行します。

 docker run -it -p 8888:8888 -p 6006:6006 \
tensorflow/tensorflow:nightly-py3-jupyter 
 

ここで、 -p 6006はTensorBoardのデフォルトポートです。これにより、1つのTensorBoardインスタンスを実行するためのポートが割り当てられます。同時インスタンスを使用するには、より多くのポートを割り当てる必要があります。

 # Load the TensorBoard notebook extension
%load_ext tensorboard
 

TensorFlow、datetime、osをインポートします。

 import tensorflow as tf
import datetime, os
 

ノートブックのTensorBoard

FashionMNISTデータセットをダウンロードしてスケーリングします。

 fashion_mnist = tf.keras.datasets.fashion_mnist

(x_train, y_train),(x_test, y_test) = fashion_mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0
 
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/train-labels-idx1-ubyte.gz
32768/29515 [=================================] - 0s 0us/step
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/train-images-idx3-ubyte.gz
26427392/26421880 [==============================] - 0s 0us/step
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/t10k-labels-idx1-ubyte.gz
8192/5148 [===============================================] - 0s 0us/step
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/t10k-images-idx3-ubyte.gz
4423680/4422102 [==============================] - 0s 0us/step

非常にシンプルなモデルを作成します。

 def create_model():
  return tf.keras.models.Sequential([
    tf.keras.layers.Flatten(input_shape=(28, 28)),
    tf.keras.layers.Dense(512, activation='relu'),
    tf.keras.layers.Dropout(0.2),
    tf.keras.layers.Dense(10, activation='softmax')
  ])
 

KerasとTensorBoardコールバックを使用してモデルをトレーニングします。

 def train_model():
  
  model = create_model()
  model.compile(optimizer='adam',
                loss='sparse_categorical_crossentropy',
                metrics=['accuracy'])

  logdir = os.path.join("logs", datetime.datetime.now().strftime("%Y%m%d-%H%M%S"))
  tensorboard_callback = tf.keras.callbacks.TensorBoard(logdir, histogram_freq=1)

  model.fit(x=x_train, 
            y=y_train, 
            epochs=5, 
            validation_data=(x_test, y_test), 
            callbacks=[tensorboard_callback])

train_model()
 
Train on 60000 samples, validate on 10000 samples
Epoch 1/5
60000/60000 [==============================] - 11s 182us/sample - loss: 0.4976 - accuracy: 0.8204 - val_loss: 0.4143 - val_accuracy: 0.8538
Epoch 2/5
60000/60000 [==============================] - 10s 174us/sample - loss: 0.3845 - accuracy: 0.8588 - val_loss: 0.3855 - val_accuracy: 0.8626
Epoch 3/5
60000/60000 [==============================] - 10s 175us/sample - loss: 0.3513 - accuracy: 0.8705 - val_loss: 0.3740 - val_accuracy: 0.8607
Epoch 4/5
60000/60000 [==============================] - 11s 177us/sample - loss: 0.3287 - accuracy: 0.8793 - val_loss: 0.3596 - val_accuracy: 0.8719
Epoch 5/5
60000/60000 [==============================] - 11s 178us/sample - loss: 0.3153 - accuracy: 0.8825 - val_loss: 0.3360 - val_accuracy: 0.8782

マジックを使用してノートブック内でTensorBoardを起動します

 %tensorboard --logdir logs
 

スカラー、グラフ、ヒストグラムなどのダッシュボードを表示できるようになりました。一部のダッシュボードはColabではまだ利用できません(プロファイルプラグインなど)。

%tensorboardマジックは、TensorBoardコマンドライン呼び出しとまったく同じ形式ですが、前に%記号が付いています。

トレーニングの前にTensorBoardを起動して、進行状況を監視することもできます。

 %tensorboard --logdir logs
 

同じコマンドを発行すると、同じTensorBoardバックエンドが再利用されます。別のログディレクトリが選択された場合、TensorBoardの新しいインスタンスが開かれます。ポートは自動的に管理されます。

新しいモデルのトレーニングを開始し、30秒ごとにTensorBoardが自動的に更新されるのを確認するか、右上のボタンで更新します。

 train_model()
 
Train on 60000 samples, validate on 10000 samples
Epoch 1/5
60000/60000 [==============================] - 11s 184us/sample - loss: 0.4968 - accuracy: 0.8223 - val_loss: 0.4216 - val_accuracy: 0.8481
Epoch 2/5
60000/60000 [==============================] - 11s 176us/sample - loss: 0.3847 - accuracy: 0.8587 - val_loss: 0.4056 - val_accuracy: 0.8545
Epoch 3/5
60000/60000 [==============================] - 11s 176us/sample - loss: 0.3495 - accuracy: 0.8727 - val_loss: 0.3600 - val_accuracy: 0.8700
Epoch 4/5
60000/60000 [==============================] - 11s 179us/sample - loss: 0.3282 - accuracy: 0.8795 - val_loss: 0.3636 - val_accuracy: 0.8694
Epoch 5/5
60000/60000 [==============================] - 11s 176us/sample - loss: 0.3115 - accuracy: 0.8839 - val_loss: 0.3438 - val_accuracy: 0.8764

tensorboard.notebook APIを使用して、もう少し制御できます。

 from tensorboard import notebook
notebook.list() # View open TensorBoard instances
 
Known TensorBoard instances:

  - port 6006: logdir logs (started 0:00:54 ago; pid 265)

 # Control TensorBoard display. If no port is provided, 
# the most recently launched TensorBoard is used
notebook.display(port=6006, height=1000)