Training a neural network on MNIST with Keras

コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。

This simple example demonstrates how to plug TensorFlow Datasets (TFDS) into a Keras model.

TensorFlow.org で表示 Google Colab で実行 GitHub でソースを表示 ノートブックをダウンロード
import tensorflow as tf
import tensorflow_datasets as tfds
2022-08-08 16:26:43.294179: E tensorflow/stream_executor/cuda/cuda_blas.cc:2981] Unable to register cuBLAS factory: Attempting to register factory for plugin cuBLAS when one has already been registered
2022-08-08 16:26:44.011504: W tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libnvinfer.so.7'; dlerror: libnvrtc.so.11.1: cannot open shared object file: No such file or directory
2022-08-08 16:26:44.011753: W tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libnvinfer_plugin.so.7'; dlerror: libnvrtc.so.11.1: cannot open shared object file: No such file or directory
2022-08-08 16:26:44.011765: W tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Cannot dlopen some TensorRT libraries. If you would like to use Nvidia GPU with TensorRT, please make sure the missing libraries mentioned above are installed properly.

手順 1: 入力パイプラインを作成する

まず、次のガイドを参照し、有効な入力パイプラインを構築します。

データセットを読み込む

次の引数を使って MNIST データセットを読み込みます。

  • shuffle_files: MNIST データは、単一のファイルにのみ保存されていますが、ディスク上の複数のファイルを伴うより大きなデータセットについては、トレーニングの際にシャッフルすることが良い実践です。
  • as_supervised: dict {'image': img, 'label': label} の代わりに tuple (img, label) を返します。
(ds_train, ds_test), ds_info = tfds.load(
    'mnist',
    split=['train', 'test'],
    shuffle_files=True,
    as_supervised=True,
    with_info=True,
)

トレーニングパイプラインを構築する

次の変換を適用します。

  • tf.data.Dataset.map: TFDS は画像を tf.uint8 として提供しますが、モデルは tf.float32 を期待するため、画像を正規化します。
  • tf.data.Dataset.cache: データセットがメモリに収まる場合、シャッフル前にキャッシュすると、パフォーマンスを改善できます。
    注意: ランダム変換は、キャッシュの後に適用してください。
  • tf.data.Dataset.shuffle: 真のランダム性を得るには、シャッフルバッファをデータセットの完全なサイズに設定してください。
    注意: メモリに収まらない大きなデータセットについては、システムで可能な場合は buffer_size=1000 にします。
  • tf.data.Dataset.batch: シャッフルの後にバッチ処理を行い、各エポックで一意のバッチを取得します。
  • tf.data.Dataset.prefetch: プリフェッチによってパイプラインを終了し、パフォーマンスを向上させます。
def normalize_img(image, label):
  """Normalizes images: `uint8` -> `float32`."""
  return tf.cast(image, tf.float32) / 255., label

ds_train = ds_train.map(
    normalize_img, num_parallel_calls=tf.data.AUTOTUNE)
ds_train = ds_train.cache()
ds_train = ds_train.shuffle(ds_info.splits['train'].num_examples)
ds_train = ds_train.batch(128)
ds_train = ds_train.prefetch(tf.data.AUTOTUNE)

評価パイプラインを構築する

テストのパイプラインはトレーニングのパイプラインと似ていますが、次のようにわずかに異なります。

  • tf.data.Dataset.shuffle を呼び出す必要はありません。
  • エポック間のバッチが同一である可能性があるのでキャッシュはバッチ処理の後に行われます。
ds_test = ds_test.map(
    normalize_img, num_parallel_calls=tf.data.AUTOTUNE)
ds_test = ds_test.batch(128)
ds_test = ds_test.cache()
ds_test = ds_test.prefetch(tf.data.AUTOTUNE)

手順 2: モデルを作成してトレーニングする

TFDS 入力パイプラインを簡単な Keras モデルにプラグインし、モデルをコンパイルしてトレーニングします。

model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(input_shape=(28, 28)),
  tf.keras.layers.Dense(128, activation='relu'),
  tf.keras.layers.Dense(10)
])
model.compile(
    optimizer=tf.keras.optimizers.Adam(0.001),
    loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
    metrics=[tf.keras.metrics.SparseCategoricalAccuracy()],
)

model.fit(
    ds_train,
    epochs=6,
    validation_data=ds_test,
)
Epoch 1/6
469/469 [==============================] - 4s 3ms/step - loss: 0.3522 - sparse_categorical_accuracy: 0.9031 - val_loss: 0.1962 - val_sparse_categorical_accuracy: 0.9428
Epoch 2/6
469/469 [==============================] - 1s 2ms/step - loss: 0.1637 - sparse_categorical_accuracy: 0.9534 - val_loss: 0.1398 - val_sparse_categorical_accuracy: 0.9586
Epoch 3/6
469/469 [==============================] - 1s 2ms/step - loss: 0.1172 - sparse_categorical_accuracy: 0.9667 - val_loss: 0.1095 - val_sparse_categorical_accuracy: 0.9678
Epoch 4/6
469/469 [==============================] - 1s 2ms/step - loss: 0.0905 - sparse_categorical_accuracy: 0.9743 - val_loss: 0.0911 - val_sparse_categorical_accuracy: 0.9723
Epoch 5/6
469/469 [==============================] - 1s 2ms/step - loss: 0.0726 - sparse_categorical_accuracy: 0.9793 - val_loss: 0.0881 - val_sparse_categorical_accuracy: 0.9732
Epoch 6/6
469/469 [==============================] - 1s 2ms/step - loss: 0.0593 - sparse_categorical_accuracy: 0.9834 - val_loss: 0.0772 - val_sparse_categorical_accuracy: 0.9761
<keras.callbacks.History at 0x7f5988015430>