หน้านี้ได้รับการแปลโดย Cloud Translation API
Switch to English

การแสดงข้อมูลโดยใช้การฝังโปรเจคเตอร์ใน TensorBoard

ดูใน TensorFlow.org เรียกใช้ใน Google Colab ดูแหล่งที่มาบน GitHub

ภาพรวม

การใช้ TensorBoard Embedded Projector คุณสามารถแสดงภาพกราฟิกที่ฝังในมิติสูงได้ ซึ่งจะเป็นประโยชน์ในการแสดงภาพตรวจสอบและทำความเข้าใจเลเยอร์การฝังของคุณ

ภาพหน้าจอของโปรเจ็กเตอร์แบบฝัง

ในบทช่วยสอนนี้คุณจะได้เรียนรู้ว่าเลเยอร์ที่ผ่านการฝึกอบรมประเภทนี้เห็นภาพอย่างไร

ติดตั้ง

สำหรับบทช่วยสอนนี้เราจะใช้ TensorBoard เพื่อแสดงภาพเลเยอร์การฝังที่สร้างขึ้นสำหรับการจำแนกข้อมูลการตรวจสอบภาพยนตร์

try:
  # %tensorflow_version only exists in Colab.
  %tensorflow_version 2.x
except Exception:
  pass

%load_ext tensorboard
import os
import tensorflow as tf
import tensorflow_datasets as tfds
from tensorboard.plugins import projector

ข้อมูล IMDB

เราจะใช้ชุดข้อมูลของบทวิจารณ์ภาพยนตร์ 25,000 เรื่องจาก IMDB โดยมีป้ายกำกับตามความเชื่อมั่น (เชิงบวก / ลบ) บทวิจารณ์ได้รับการประมวลผลล่วงหน้าและแต่ละบทวิจารณ์จะเข้ารหัสเป็นลำดับของดัชนีคำ (จำนวนเต็ม) เพื่อความสะดวกคำต่างๆจะถูกจัดทำดัชนีโดยความถี่โดยรวมในชุดข้อมูลดังนั้นตัวอย่างเช่นจำนวนเต็ม "3" จะเข้ารหัสคำที่บ่อยที่สุดอันดับ 3 ในข้อมูล วิธีนี้ช่วยให้สามารถกรองคำได้อย่างรวดเร็วเช่น "พิจารณาเฉพาะคำที่พบบ่อย 10,000 อันดับแรก แต่กำจัดคำที่พบบ่อย 20 อันดับแรก"

ตามแบบแผน "0" ไม่ได้หมายถึงคำเฉพาะ แต่ใช้ในการเข้ารหัสคำที่ไม่รู้จักแทน ต่อไปในบทช่วยสอนเราจะลบแถวนี้ออกจากการแสดงภาพ

(train_data, test_data), info = tfds.load(
    "imdb_reviews/subwords8k",
    split=(tfds.Split.TRAIN, tfds.Split.TEST),
    with_info=True,
    as_supervised=True,
)
encoder = info.features["text"].encoder

# shuffle and pad the data.
train_batches = train_data.shuffle(1000).padded_batch(
    10, padded_shapes=((None,), ())
)
test_batches = test_data.shuffle(1000).padded_batch(
    10, padded_shapes=((None,), ())
)
train_batch, train_labels = next(iter(train_batches))

Keras ฝังเลเยอร์

Keras Embedding Layer สามารถใช้เพื่อฝึกการฝังสำหรับแต่ละคำในคำศัพท์ของคุณ แต่ละคำ (หรือคำย่อยในกรณีนี้) จะเชื่อมโยงกับเวกเตอร์ 16 มิติ (หรือการฝัง) ที่โมเดลจะฝึก

ดู บทช่วยสอนนี้ เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับการฝังคำ

# Create an embedding layer
embedding_dim = 16
embedding = tf.keras.layers.Embedding(encoder.vocab_size, embedding_dim)
# Train this embedding as part of a keras model
model = tf.keras.Sequential(
    [
        embedding, # The embedding layer should be the first layer in a model.
        tf.keras.layers.GlobalAveragePooling1D(),
        tf.keras.layers.Dense(16, activation="relu"),
        tf.keras.layers.Dense(1),
    ]
)

# Compile model
model.compile(
    optimizer="adam",
    loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
    metrics=["accuracy"],
)

# Train model
history = model.fit(
    train_batches, epochs=1, validation_data=test_batches, validation_steps=20
)
2500/2500 [==============================] - 13s 5ms/step - loss: 0.5330 - accuracy: 0.6769 - val_loss: 0.4043 - val_accuracy: 0.7800

กำลังบันทึกข้อมูลสำหรับ TensorBoard

TensorBoard อ่านเทนเซอร์และข้อมูลเมตาจากโปรเจ็กต์ tensorflow ของคุณจากบันทึกในไดเร็กทอรี log_dir ระบุ สำหรับบทช่วยสอนนี้เราจะใช้ /logs/imdb-example/

เพื่อให้เห็นภาพข้อมูลนี้เราจะบันทึกจุดตรวจลงในไดเร็กทอรีนั้นพร้อมกับข้อมูลเมตาเพื่อทำความเข้าใจว่าจะแสดงเลเยอร์ใด

# Set up a logs directory, so Tensorboard knows where to look for files
log_dir='/logs/imdb-example/'
if not os.path.exists(log_dir):
    os.makedirs(log_dir)

# Save Labels separately on a line-by-line manner.
with open(os.path.join(log_dir, 'metadata.tsv'), "w") as f:
  for subwords in encoder.subwords:
    f.write("{}\n".format(subwords))
  # Fill in the rest of the labels with "unknown"
  for unknown in range(1, encoder.vocab_size - len(encoder.subwords)):
    f.write("unknown #{}\n".format(unknown))


# Save the weights we want to analyse as a variable. Note that the first
# value represents any unknown word, which is not in the metadata, so
# we will remove that value.
weights = tf.Variable(model.layers[0].get_weights()[0][1:])
# Create a checkpoint from embedding, the filename and key are
# name of the tensor.
checkpoint = tf.train.Checkpoint(embedding=weights)
checkpoint.save(os.path.join(log_dir, "embedding.ckpt"))

# Set up config
config = projector.ProjectorConfig()
embedding = config.embeddings.add()
# The name of the tensor will be suffixed by `/.ATTRIBUTES/VARIABLE_VALUE`
embedding.tensor_name = "embedding/.ATTRIBUTES/VARIABLE_VALUE"
embedding.metadata_path = 'metadata.tsv'
projector.visualize_embeddings(log_dir, config)
%tensorboard --logdir /logs/imdb-example/

การวิเคราะห์

TensorBoard Projector เป็นเครื่องมือที่ยอดเยี่ยมสำหรับการวิเคราะห์ข้อมูลของคุณและดูค่าการฝังที่สัมพันธ์กัน แดชบอร์ดช่วยให้ค้นหาคำศัพท์เฉพาะและไฮไลต์คำที่อยู่ใกล้เคียงในพื้นที่ฝัง จากตัวอย่างนี้เราจะเห็นว่า Wes Anderson และ Alfred Hitchcock เป็นคำที่ค่อนข้างเป็นกลาง แต่มีการอ้างอิงในบริบทที่แตกต่างกัน

ฮิทช์ค็อกมีความเกี่ยวข้องใกล้ชิดกับคำต่างๆเช่น nightmare ซึ่งน่าจะเกี่ยวข้องกับงานของเขาในภาพยนตร์สยองขวัญ ในขณะที่แอนเดอร์สันใกล้ชิดกับคำว่า heart มากขึ้นซึ่งสะท้อนถึงสไตล์ที่อบอุ่นของเขา