このページは Cloud Translation API によって翻訳されました。
Switch to English

TensorBoardの埋め込みプロジェクターを使用したデータの視覚化

TensorFlow.orgで見る Google Colabで実行 GitHubでソースを表示

概観

TensorBoard埋め込みプロジェクターを使用すると、高次元の埋め込みをグラフィカルに表すことができます。これは、埋め込みレイヤーの視覚化、調査、理解に役立ちます。

埋め込みプロジェクターのスクリーンショット

このチュートリアルでは、このタイプのトレーニング済みレイヤーを視覚化する方法を学びます。

セットアップ

このチュートリアルでは、TensorBoardを使用して、映画レビューデータを分類するために生成された埋め込みレイヤーを視覚化します。

 try:
  # %tensorflow_version only exists in Colab.
  %tensorflow_version 2.x
except Exception:
  pass

%load_ext tensorboard
 
 import os
import tensorflow as tf
import tensorflow_datasets as tfds
from tensorboard.plugins import projector

 

IMDBデータ

ここでは、感情(ポジティブ/ネガティブ)でラベル付けされた、IMDBからの25,000の映画レビューのデータセットを使用します。レビューは前処理されており、各レビューは一連の単語インデックス(整数)としてエンコードされています。便宜上、データセット内の全体的な頻度によって単語にインデックスが付けられるため、たとえば整数「3」はデータ内で3番目に頻度の高い単語をエンコードします。これにより、「上位10,000の最も一般的な単語のみを考慮し、上位20の最も一般的な単語は除外する」などの迅速なフィルタリング操作が可能になります。

慣例として、「0」は特定の単語を表すのではなく、不明な単語をエンコードするために使用されます。チュートリアルの後半で、この行を視覚化から削除します。

 (train_data, test_data), info = tfds.load(
    "imdb_reviews/subwords8k",
    split=(tfds.Split.TRAIN, tfds.Split.TEST),
    with_info=True,
    as_supervised=True,
)
encoder = info.features["text"].encoder

# shuffle and pad the data.
train_batches = train_data.shuffle(1000).padded_batch(
    10, padded_shapes=((None,), ())
)
test_batches = test_data.shuffle(1000).padded_batch(
    10, padded_shapes=((None,), ())
)
train_batch, train_labels = next(iter(train_batches))

 

Keras埋め込みレイヤー

Keras埋め込みレイヤーを使用して、volcabularyの各単語の埋め込みをトレーニングできます。各単語(この場合はサブ単語)は、モデルによってトレーニングされる16次元ベクトル(または埋め込み)に関連付けられます。

単語の埋め込みについて詳しくは、 このチュートリアルをご覧ください。

 # Create an embedding layer
embedding_dim = 16
embedding = tf.keras.layers.Embedding(encoder.vocab_size, embedding_dim)
# Train this embedding as part of a keras model
model = tf.keras.Sequential(
    [
        embedding, # The embedding layer should be the first layer in a model.
        tf.keras.layers.GlobalAveragePooling1D(),
        tf.keras.layers.Dense(16, activation="relu"),
        tf.keras.layers.Dense(1),
    ]
)

# Compile model
model.compile(
    optimizer="adam",
    loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
    metrics=["accuracy"],
)

# Train model
history = model.fit(
    train_batches, epochs=1, validation_data=test_batches, validation_steps=20
)
 
2500/2500 [==============================] - 13s 5ms/step - loss: 0.5330 - accuracy: 0.6769 - val_loss: 0.4043 - val_accuracy: 0.7800

TensorBoardのデータを保存する

TensorBoardは、指定されたlog_dirディレクトリのログからテンソルフロープロジェクトからテンソルとメタデータを読み取ります。このチュートリアルでは、 /logs/imdb-example/ます。

このデータを視覚化するために、どのディレクトリを視覚化するかを理解するためのメタデータとともに、チェックポイントをそのディレクトリに保存します。

 # Set up a logs directory, so Tensorboard knows where to look for files
log_dir='/logs/imdb-example/'
if not os.path.exists(log_dir):
    os.makedirs(log_dir)

# Save Labels separately on a line-by-line manner.
with open(os.path.join(log_dir, 'metadata.tsv'), "w") as f:
  for subwords in encoder.subwords:
    f.write("{}\n".format(subwords))
  # Fill in the rest of the labels with "unknown"
  for unknown in range(1, encoder.vocab_size - len(encoder.subwords)):
    f.write("unknown #{}\n".format(unknown))


# Save the weights we want to analyse as a variable. Note that the first
# value represents any unknown word, which is not in the metadata, so
# we will remove that value.
weights = tf.Variable(model.layers[0].get_weights()[0][1:])
# Create a checkpoint from embedding, the filename and key are
# name of the tensor.
checkpoint = tf.train.Checkpoint(embedding=weights)
checkpoint.save(os.path.join(log_dir, "embedding.ckpt"))

# Set up config
config = projector.ProjectorConfig()
embedding = config.embeddings.add()
# The name of the tensor will be suffixed by `/.ATTRIBUTES/VARIABLE_VALUE`
embedding.tensor_name = "embedding/.ATTRIBUTES/VARIABLE_VALUE"
embedding.metadata_path = 'metadata.tsv'
projector.visualize_embeddings(log_dir, config)
 
 %tensorboard --logdir /logs/imdb-example/
 

分析

TensorBoard Projectorは、データを分析し、相互に関連する埋め込み値を確認するための優れたツールです。ダッシュボードでは特定の用語を検索でき、埋め込みスペース内の近くにある単語を強調表示します。この例から、ウェスアンダーソンとアルフレッドヒッチコックはどちらもどちらかといえば中立的な用語であることがわかりますが、それらは異なるコンテキストで参照されています。

ヒッチコックは、ホラー映画での彼の作品に関連している可能性が高いnightmareような言葉に密接に関連しています。アンダーソンは彼の心温まるスタイルを反映して、 heartという言葉に近いです。