사전 제작 Estimator

TensorFlow.org에서 보기 Google Colab에서 실행하기 GitHub에서소스 보기 노트북 다운로드하기

이 튜토리얼에서는 Estimator를 사용하여 TensorFlow에서 Iris 분류 문제를 해결하는 방법을 보여줍니다. Estimator는 완전한 모델을 TensorFlow에서 높은 수준으로 표현한 것이며, 간편한 크기 조정과 비동기식 훈련에 목적을 두고 설계되었습니다. 자세한 내용은 Estimator를 참조하세요.

TensorFlow 2.0에서 Keras API는 이러한 작업을 상당 부분 동일하게 수행할 수 있으며 배우기 쉬운 API로 여겨집니다. 새로 시작하는 경우 Keras로 시작하는 것이 좋습니다. TensorFlow 2.0에서 사용 가능한 고급 API에 대한 자세한 정보는 Keras에 표준화를 참조하세요.

시작을 위한 준비

시작하려면 먼저 TensorFlow와 필요한 여러 라이브러리를 가져옵니다.

import tensorflow as tf

import pandas as pd

데이터세트

이 문서의 샘플 프로그램은 아이리스 꽃을 꽃받침잎꽃잎의 크기에 따라 세 가지 종으로 분류하는 모델을 빌드하고 테스트합니다.

Iris 데이터세트를 사용하여 모델을 훈련합니다. Iris 데이터세트에는 네 가지 특성과 하나의 레이블이 있습니다. 이 네 가지 특성은 개별 아이리스 꽃의 다음과 같은 식물 특성을 식별합니다.

  • 꽃받침잎 길이
  • 꽃받침잎 너비
  • 꽃잎 길이
  • 꽃잎 너비

이 정보를 바탕으로 데이터를 구문 분석하는 데 도움이 되는 몇 가지 상수를 정의할 수 있습니다.

CSV_COLUMN_NAMES = ['SepalLength', 'SepalWidth', 'PetalLength', 'PetalWidth', 'Species']
SPECIES = ['Setosa', 'Versicolor', 'Virginica']

그 다음, Keras 및 Pandas를 사용하여 Iris 데이터세트를 다운로드하고 구문 분석합니다. 훈련 및 테스트를 위해 별도의 데이터세트를 유지합니다.

train_path = tf.keras.utils.get_file(
    "iris_training.csv", "https://storage.googleapis.com/download.tensorflow.org/data/iris_training.csv")
test_path = tf.keras.utils.get_file(
    "iris_test.csv", "https://storage.googleapis.com/download.tensorflow.org/data/iris_test.csv")

train = pd.read_csv(train_path, names=CSV_COLUMN_NAMES, header=0)
test = pd.read_csv(test_path, names=CSV_COLUMN_NAMES, header=0)
Downloading data from https://storage.googleapis.com/download.tensorflow.org/data/iris_training.csv
8192/2194 [================================================================================================================] - 0s 0us/step
Downloading data from https://storage.googleapis.com/download.tensorflow.org/data/iris_test.csv
8192/573 [============================================================================================================================================================================================================================================================================================================================================================================================================================================] - 0s 0us/step

데이터를 검사하여 네 개의 float 특성 열과 하나의 int32 레이블이 있는지 확인할 수 있습니다.

train.head()

각 데이터세트에 대해 예측하도록 모델을 훈련할 레이블을 분할합니다.

train_y = train.pop('Species')
test_y = test.pop('Species')

# The label column has now been removed from the features.
train.head()

Estimator를 사용한 프로그래밍 개요

이제 데이터가 설정되었으므로 TensorFlow Estimator를 사용하여 모델을 정의할 수 있습니다. Estimator는 tf.estimator.Estimator에서 파생된 임의의 클래스입니다. TensorFlow는 일반적인 ML 알고리즘을 구현하기 위해 tf.estimator(예: LinearRegressor) 모음을 제공합니다. 그 외에도 고유한 사용자 정의 Estimator를 작성할 수 있습니다. 처음 시작할 때는 사전 제작된 Estimator를 사용하는 것이 좋습니다.

사전 제작된 Estimator를 기초로 TensorFlow 프로그램을 작성하려면 다음 작업을 수행해야 합니다.

  • 하나 이상의 입력 함수를 작성합니다.
  • 모델의 특성 열을 정의합니다.
  • 특성 열과 다양한 하이퍼 매개변수를 지정하여 Estimator를 인스턴스화합니다.
  • Estimator 객체에서 하나 이상의 메서드를 호출하여 적합한 입력 함수를 데이터 소스로 전달합니다.

이러한 작업이 Iris 분류를 위해 어떻게 구현되는지 알아보겠습니다.

입력 함수 작성하기

훈련, 평가 및 예측을 위한 데이터를 제공하려면 입력 함수를 작성해야 합니다.

입력 함수는 다음 두 요소 튜플을 출력하는 tf.data.Dataset 객체를 반환하는 함수입니다.

  • features -다음과 같은 Python 사전:
    • 각 키가 특성의 이름입니다.
    • 각 값은 해당 특성 값을 모두 포함하는 배열입니다.
  • label - 모든 예제의 레이블 값을 포함하는 배열입니다.

입력 함수의 형식을 보여주기 위해 여기에 간단한 구현을 나타냈습니다.

def input_evaluation_set():
    features = {'SepalLength': np.array([6.4, 5.0]),
                'SepalWidth':  np.array([2.8, 2.3]),
                'PetalLength': np.array([5.6, 3.3]),
                'PetalWidth':  np.array([2.2, 1.0])}
    labels = np.array([2, 1])
    return features, labels

입력 함수에서 원하는 대로 features 사전 및 label 목록이 생성되도록 할 수 있습니다. 그러나 모든 종류의 데이터를 구문 분석할 수 있는 TensorFlow의 Dataset API를 사용하는 것이 좋습니다.

Dataset API는 많은 일반적인 경우를 자동으로 처리할 수 있습니다. 예를 들어, Dataset API를 사용하면 대규모 파일 모음에서 레코드를 병렬로 쉽게 읽고 이를 단일 스트림으로 결합할 수 있습니다.

이 예제에서는 작업을 단순화하기 위해 pandas 데이터를 로드하고 이 인메모리 데이터에서 입력 파이프라인을 빌드합니다.

def input_fn(features, labels, training=True, batch_size=256):
    """An input function for training or evaluating"""
    # Convert the inputs to a Dataset.
    dataset = tf.data.Dataset.from_tensor_slices((dict(features), labels))

    # Shuffle and repeat if you are in training mode.
    if training:
        dataset = dataset.shuffle(1000).repeat()

    return dataset.batch(batch_size)

특성 열 정의하기

특성 열은 모델이 특성 사전의 원시 입력 데이터를 사용하는 방식을 설명하는 객체입니다. Estimator 모델을 빌드할 때는 모델에서 사용할 각 특성을 설명하는 특성 열 목록을 전달합니다. tf.feature_column 모듈은 모델에 데이터를 나타내기 위한 많은 옵션을 제공합니다.

Iris의 경우 4개의 원시 특성은 숫자 값이므로, 네 개의 특성 각각을 32-bit 부동 소수점 값으로 나타내도록 Estimator 모델에 알려주는 특성 열 목록을 빌드합니다. 따라서 특성 열을 작성하는 코드는 다음과 같습니다.

# Feature columns describe how to use the input.
my_feature_columns = []
for key in train.keys():
    my_feature_columns.append(tf.feature_column.numeric_column(key=key))

특성 열은 여기에 표시된 것보다 훨씬 정교할 수 있습니다. 이 가이드에서 특성 열에 대한 자세한 내용을 읽을 수 있습니다.

모델이 원시 특성을 나타내도록 할 방식에 대한 설명이 준비되었으므로 Estimator를 빌드할 수 있습니다.

Estimator 인스턴스화하기

Iris 문제는 고전적인 분류 문제입니다. 다행히도 TensorFlow는 다음을 포함하여 여러 가지 사전 제작된 분류자 Estimator를 제공합니다.

Iris 문제의 경우 tf.estimator.DNNClassifier가 최선의 선택인 것으로 여겨집니다. 이 Estimator를 인스턴스화하는 방법은 다음과 같습니다.

# Build a DNN with 2 hidden layers with 30 and 10 hidden nodes each.
classifier = tf.estimator.DNNClassifier(
    feature_columns=my_feature_columns,
    # Two hidden layers of 30 and 10 nodes respectively.
    hidden_units=[30, 10],
    # The model must choose between 3 classes.
    n_classes=3)
INFO:tensorflow:Using default config.
WARNING:tensorflow:Using temporary folder as model directory: /tmp/tmpvsr36dxz
INFO:tensorflow:Using config: {'_model_dir': '/tmp/tmpvsr36dxz', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': None, '_save_checkpoints_secs': 600, '_session_config': allow_soft_placement: true
graph_options {
  rewrite_options {
    meta_optimizer_iterations: ONE
  }
}
, '_keep_checkpoint_max': 5, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': 100, '_train_distribute': None, '_device_fn': None, '_protocol': None, '_eval_distribute': None, '_experimental_distribute': None, '_experimental_max_worker_delay_secs': None, '_session_creation_timeout_secs': 7200, '_service': None, '_cluster_spec': ClusterSpec({}), '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1}

훈련, 평가 및 예측하기

이제 Estimator 객체가 준비되었으므로 메서드를 호출하여 다음을 수행할 수 있습니다.

  • 모델을 훈련합니다.
  • 훈련한 모델을 평가합니다.
  • 훈련한 모델을 사용하여 예측을 수행합니다.

모델 훈련하기

다음과 같이 Estimator의 train 메서드를 호출하여 모델을 훈련합니다.

# Train the Model.
classifier.train(
    input_fn=lambda: input_fn(train, train_y, training=True),
    steps=5000)
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.6/site-packages/tensorflow/python/training/training_util.py:236: Variable.initialized_value (from tensorflow.python.ops.variables) is deprecated and will be removed in a future version.
Instructions for updating:
Use Variable.read_value. Variables in 2.X are initialized automatically both in eager and graph (inside tf.defun) contexts.
INFO:tensorflow:Calling model_fn.
WARNING:tensorflow:Layer dnn is casting an input tensor from dtype float64 to the layer's dtype of float32, which is new behavior in TensorFlow 2.  The layer has dtype float32 because its dtype defaults to floatx.

If you intended to run this layer in float32, you can safely ignore this warning. If in doubt, this warning is likely only an issue if you are porting a TensorFlow 1.X model to TensorFlow 2.

To change all layers to have dtype float64 by default, call `tf.keras.backend.set_floatx('float64')`. To change just this layer, pass dtype='float64' to the layer constructor. If you are the author of this layer, you can disable autocasting by passing autocast=False to the base Layer constructor.

WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.6/site-packages/tensorflow/python/keras/optimizer_v2/adagrad.py:83: calling Constant.__init__ (from tensorflow.python.ops.init_ops) with dtype is deprecated and will be removed in a future version.
Instructions for updating:
Call initializer instance with the dtype argument instead of passing it to the constructor
INFO:tensorflow:Done calling model_fn.
INFO:tensorflow:Create CheckpointSaverHook.
INFO:tensorflow:Graph was finalized.
INFO:tensorflow:Running local_init_op.
INFO:tensorflow:Done running local_init_op.
INFO:tensorflow:Calling checkpoint listeners before saving checkpoint 0...
INFO:tensorflow:Saving checkpoints for 0 into /tmp/tmpvsr36dxz/model.ckpt.
INFO:tensorflow:Calling checkpoint listeners after saving checkpoint 0...
INFO:tensorflow:loss = 2.2427588, step = 0
INFO:tensorflow:global_step/sec: 306.708
INFO:tensorflow:loss = 1.1290829, step = 100 (0.327 sec)
INFO:tensorflow:global_step/sec: 364.835
INFO:tensorflow:loss = 0.9329106, step = 200 (0.274 sec)
INFO:tensorflow:global_step/sec: 364.384
INFO:tensorflow:loss = 0.8344506, step = 300 (0.275 sec)
INFO:tensorflow:global_step/sec: 355.202
INFO:tensorflow:loss = 0.78705454, step = 400 (0.282 sec)
INFO:tensorflow:global_step/sec: 361.133
INFO:tensorflow:loss = 0.75145936, step = 500 (0.277 sec)
INFO:tensorflow:global_step/sec: 357.941
INFO:tensorflow:loss = 0.73316216, step = 600 (0.280 sec)
INFO:tensorflow:global_step/sec: 365.465
INFO:tensorflow:loss = 0.6929362, step = 700 (0.274 sec)
INFO:tensorflow:global_step/sec: 363.54
INFO:tensorflow:loss = 0.68655264, step = 800 (0.275 sec)
INFO:tensorflow:global_step/sec: 368.574
INFO:tensorflow:loss = 0.6642401, step = 900 (0.272 sec)
INFO:tensorflow:global_step/sec: 359.704
INFO:tensorflow:loss = 0.6419859, step = 1000 (0.278 sec)
INFO:tensorflow:global_step/sec: 363.515
INFO:tensorflow:loss = 0.64360225, step = 1100 (0.275 sec)
INFO:tensorflow:global_step/sec: 369.71
INFO:tensorflow:loss = 0.63262594, step = 1200 (0.270 sec)
INFO:tensorflow:global_step/sec: 366.333
INFO:tensorflow:loss = 0.6430565, step = 1300 (0.273 sec)
INFO:tensorflow:global_step/sec: 362.055
INFO:tensorflow:loss = 0.5947719, step = 1400 (0.276 sec)
INFO:tensorflow:global_step/sec: 365.101
INFO:tensorflow:loss = 0.5949738, step = 1500 (0.274 sec)
INFO:tensorflow:global_step/sec: 366.428
INFO:tensorflow:loss = 0.5897101, step = 1600 (0.273 sec)
INFO:tensorflow:global_step/sec: 361.932
INFO:tensorflow:loss = 0.5576461, step = 1700 (0.277 sec)
INFO:tensorflow:global_step/sec: 364.995
INFO:tensorflow:loss = 0.576666, step = 1800 (0.274 sec)
INFO:tensorflow:global_step/sec: 362.36
INFO:tensorflow:loss = 0.5660861, step = 1900 (0.276 sec)
INFO:tensorflow:global_step/sec: 367.104
INFO:tensorflow:loss = 0.54570633, step = 2000 (0.272 sec)
INFO:tensorflow:global_step/sec: 363.44
INFO:tensorflow:loss = 0.5413732, step = 2100 (0.275 sec)
INFO:tensorflow:global_step/sec: 369.414
INFO:tensorflow:loss = 0.5397475, step = 2200 (0.272 sec)
INFO:tensorflow:global_step/sec: 370.627
INFO:tensorflow:loss = 0.5362458, step = 2300 (0.268 sec)
INFO:tensorflow:global_step/sec: 366.412
INFO:tensorflow:loss = 0.5336581, step = 2400 (0.273 sec)
INFO:tensorflow:global_step/sec: 362.661
INFO:tensorflow:loss = 0.5299721, step = 2500 (0.276 sec)
INFO:tensorflow:global_step/sec: 366.445
INFO:tensorflow:loss = 0.517693, step = 2600 (0.273 sec)
INFO:tensorflow:global_step/sec: 366.274
INFO:tensorflow:loss = 0.5005358, step = 2700 (0.273 sec)
INFO:tensorflow:global_step/sec: 371.997
INFO:tensorflow:loss = 0.48671544, step = 2800 (0.269 sec)
INFO:tensorflow:global_step/sec: 371.658
INFO:tensorflow:loss = 0.50389737, step = 2900 (0.269 sec)
INFO:tensorflow:global_step/sec: 366.244
INFO:tensorflow:loss = 0.48867115, step = 3000 (0.273 sec)
INFO:tensorflow:global_step/sec: 369.781
INFO:tensorflow:loss = 0.49123567, step = 3100 (0.271 sec)
INFO:tensorflow:global_step/sec: 377.017
INFO:tensorflow:loss = 0.48629192, step = 3200 (0.265 sec)
INFO:tensorflow:global_step/sec: 363.837
INFO:tensorflow:loss = 0.47328043, step = 3300 (0.275 sec)
INFO:tensorflow:global_step/sec: 361.756
INFO:tensorflow:loss = 0.4559205, step = 3400 (0.276 sec)
INFO:tensorflow:global_step/sec: 371.651
INFO:tensorflow:loss = 0.4618737, step = 3500 (0.269 sec)
INFO:tensorflow:global_step/sec: 365.211
INFO:tensorflow:loss = 0.4594363, step = 3600 (0.274 sec)
INFO:tensorflow:global_step/sec: 364.578
INFO:tensorflow:loss = 0.44525445, step = 3700 (0.274 sec)
INFO:tensorflow:global_step/sec: 374.726
INFO:tensorflow:loss = 0.44723755, step = 3800 (0.267 sec)
INFO:tensorflow:global_step/sec: 370.71
INFO:tensorflow:loss = 0.44716847, step = 3900 (0.270 sec)
INFO:tensorflow:global_step/sec: 368.581
INFO:tensorflow:loss = 0.44152617, step = 4000 (0.271 sec)
INFO:tensorflow:global_step/sec: 361.406
INFO:tensorflow:loss = 0.44583264, step = 4100 (0.278 sec)
INFO:tensorflow:global_step/sec: 359.452
INFO:tensorflow:loss = 0.43389797, step = 4200 (0.277 sec)
INFO:tensorflow:global_step/sec: 368.622
INFO:tensorflow:loss = 0.451651, step = 4300 (0.271 sec)
INFO:tensorflow:global_step/sec: 367.159
INFO:tensorflow:loss = 0.41700146, step = 4400 (0.272 sec)
INFO:tensorflow:global_step/sec: 369.12
INFO:tensorflow:loss = 0.4204286, step = 4500 (0.271 sec)
INFO:tensorflow:global_step/sec: 367.732
INFO:tensorflow:loss = 0.4172269, step = 4600 (0.272 sec)
INFO:tensorflow:global_step/sec: 361.965
INFO:tensorflow:loss = 0.42517757, step = 4700 (0.276 sec)
INFO:tensorflow:global_step/sec: 353.034
INFO:tensorflow:loss = 0.4108694, step = 4800 (0.283 sec)
INFO:tensorflow:global_step/sec: 352.527
INFO:tensorflow:loss = 0.40016943, step = 4900 (0.284 sec)
INFO:tensorflow:Calling checkpoint listeners before saving checkpoint 5000...
INFO:tensorflow:Saving checkpoints for 5000 into /tmp/tmpvsr36dxz/model.ckpt.
INFO:tensorflow:Calling checkpoint listeners after saving checkpoint 5000...
INFO:tensorflow:Loss for final step: 0.40954205.
<tensorflow_estimator.python.estimator.canned.dnn.DNNClassifierV2 at 0x7f874ae96be0>

Estimator가 예상한 대로 인수를 사용하지 않는 입력 함수를 제공하면서 인수를 포착하기 위해 lambda에서 input_fn 호출을 래핑합니다. steps 인수는 여러 훈련 단계를 거친 후에 훈련을 중지하도록 메서드에 지시합니다.

훈련한 모델 평가하기

모델을 훈련했으므로 성능에 대한 통계를 얻을 수 있습니다. 다음 코드 블록은 테스트 데이터에서 훈련한 모델의 정확도를 평가합니다.

eval_result = classifier.evaluate(
    input_fn=lambda: input_fn(test, test_y, training=False))

print('\nTest set accuracy: {accuracy:0.3f}\n'.format(**eval_result))
INFO:tensorflow:Calling model_fn.
WARNING:tensorflow:Layer dnn is casting an input tensor from dtype float64 to the layer's dtype of float32, which is new behavior in TensorFlow 2.  The layer has dtype float32 because its dtype defaults to floatx.

If you intended to run this layer in float32, you can safely ignore this warning. If in doubt, this warning is likely only an issue if you are porting a TensorFlow 1.X model to TensorFlow 2.

To change all layers to have dtype float64 by default, call `tf.keras.backend.set_floatx('float64')`. To change just this layer, pass dtype='float64' to the layer constructor. If you are the author of this layer, you can disable autocasting by passing autocast=False to the base Layer constructor.

INFO:tensorflow:Done calling model_fn.
INFO:tensorflow:Starting evaluation at 2020-11-12T03:14:06Z
INFO:tensorflow:Graph was finalized.
INFO:tensorflow:Restoring parameters from /tmp/tmpvsr36dxz/model.ckpt-5000
INFO:tensorflow:Running local_init_op.
INFO:tensorflow:Done running local_init_op.
INFO:tensorflow:Inference Time : 0.21002s
INFO:tensorflow:Finished evaluation at 2020-11-12-03:14:06
INFO:tensorflow:Saving dict for global step 5000: accuracy = 0.93333334, average_loss = 0.4879308, global_step = 5000, loss = 0.4879308
INFO:tensorflow:Saving 'checkpoint_path' summary for global step 5000: /tmp/tmpvsr36dxz/model.ckpt-5000

Test set accuracy: 0.933

train 메서드에 대한 호출과 달리 평가할 steps 인수를 전달하지 않았습니다. eval에 대한 input_fn은 단 하나의 데이터 epoch만 생성합니다.

eval_result 사전에는 average_loss(샘플당 평균 손실), loss(미니 배치당 평균 손실) 및 Estimator의 global_step 값(받은 훈련 반복 횟수)도 포함됩니다.

훈련한 모델에서 예측(추론)하기

우수한 평가 결과를 생성하는 훈련한 모델을 만들었습니다. 이제 훈련한 모델을 사용하여 레이블이 지정되지 않은 일부 측정을 바탕으로 아이리스 꽃의 종을 예측할 수 있습니다. 훈련 및 평가와 마찬가지로 단일 함수 호출을 사용하여 예측합니다.

# Generate predictions from the model
expected = ['Setosa', 'Versicolor', 'Virginica']
predict_x = {
    'SepalLength': [5.1, 5.9, 6.9],
    'SepalWidth': [3.3, 3.0, 3.1],
    'PetalLength': [1.7, 4.2, 5.4],
    'PetalWidth': [0.5, 1.5, 2.1],
}

def input_fn(features, batch_size=256):
    """An input function for prediction."""
    # Convert the inputs to a Dataset without labels.
    return tf.data.Dataset.from_tensor_slices(dict(features)).batch(batch_size)

predictions = classifier.predict(
    input_fn=lambda: input_fn(predict_x))

predict 메서드는 Python iterable을 반환하여 각 예제에 대한 예측 결과 사전을 생성합니다. 다음 코드는 몇 가지 예측과 해당 확률을 출력합니다.

for pred_dict, expec in zip(predictions, expected):
    class_id = pred_dict['class_ids'][0]
    probability = pred_dict['probabilities'][class_id]

    print('Prediction is "{}" ({:.1f}%), expected "{}"'.format(
        SPECIES[class_id], 100 * probability, expec))
INFO:tensorflow:Calling model_fn.
INFO:tensorflow:Done calling model_fn.
INFO:tensorflow:Graph was finalized.
INFO:tensorflow:Restoring parameters from /tmp/tmpvsr36dxz/model.ckpt-5000
INFO:tensorflow:Running local_init_op.
INFO:tensorflow:Done running local_init_op.
Prediction is "Setosa" (81.2%), expected "Setosa"
Prediction is "Versicolor" (46.2%), expected "Versicolor"
Prediction is "Virginica" (65.6%), expected "Virginica"