ML 커뮤니티 데이는 11월 9일입니다! TensorFlow, JAX에서 업데이트를 우리와 함께, 더 자세히 알아보기

RNN을 사용한 텍스트 생성

TensorFlow.org에서 보기 Google Colab에서 실행 GitHub에서 소스 보기 노트북 다운로드

이 튜토리얼은 문자 기반 RNN을 사용하여 텍스트를 생성하는 방법을 보여줍니다. 당신은 안드레이 Karpathy의에서 셰익스피어의 쓰기의 데이터 세트와 함께 작동합니다 재발 성 신경 회로망의 불합리한 효과 . 이 데이터의 문자 시퀀스("Shakespear")가 주어지면 시퀀스의 다음 문자("e")를 예측하도록 모델을 훈련시킵니다. 모델을 반복적으로 호출하여 더 긴 텍스트 시퀀스를 생성할 수 있습니다.

이 튜토리얼 사용하여 구현 실행 가능한 코드를 포함 tf.keras열망 실행 . 다음은 이 튜토리얼의 모델이 30개의 에포크에 대해 학습하고 프롬프트 "Q"로 시작했을 때의 샘플 출력입니다.

QUEENE:
I had thought thou hadst a Roman; for the oracle,
Thus by All bids the man against the word,
Which are so weak of care, by old care done;
Your children were in your holy love,
And the precipitation through the bleeding throne.

BISHOP OF ELY:
Marry, and will, my lord, to weep in such a one were prettiest;
Yet now I was adopted heir
Of the world's lamentable day,
To watch the next way with his father with his face?

ESCALUS:
The cause why then we are all resolved more sons.

VOLUMNIA:
O, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, it is no sin it should be dead,
And love and pale as any will to that word.

QUEEN ELIZABETH:
But how long have I heard the soul for this world,
And show his hands of life be proved to stand.

PETRUCHIO:
I say he look'd on, if I must be content
To stay him from the fatal of our country's bliss.
His lordship pluck'd from this sentence then for prey,
And then let us twain, being the moon,
were she such a case as fills m

일부 문장은 문법적이지만 대부분은 말이 되지 않습니다. 모델은 단어의 의미를 학습하지 않았지만 다음을 고려하십시오.

  • 모델은 캐릭터 기반입니다. 훈련이 시작되었을 때 모델은 영어 단어의 철자법을 몰랐거나 단어가 텍스트의 단위라는 것도 몰랐습니다.

  • 출력 구조는 연극과 유사합니다. 텍스트 블록은 일반적으로 데이터 세트와 유사한 모든 대문자로 화자 이름으로 시작합니다.

  • 아래에 설명된 것처럼 이 모델은 작은 배치의 텍스트(각각 100자)에 대해 학습되며 일관된 구조로 더 긴 텍스트 시퀀스를 생성할 수 있습니다.

설정

TensorFlow 및 기타 라이브러리 가져오기

import tensorflow as tf
from tensorflow.keras.layers.experimental import preprocessing

import numpy as np
import os
import time

셰익스피어 데이터 세트 다운로드

자신의 데이터에 대해 이 코드를 실행하려면 다음 줄을 변경하십시오.

path_to_file = tf.keras.utils.get_file('shakespeare.txt', 'https://storage.googleapis.com/download.tensorflow.org/data/shakespeare.txt')
Downloading data from https://storage.googleapis.com/download.tensorflow.org/data/shakespeare.txt
1122304/1115394 [==============================] - 0s 0us/step
1130496/1115394 [==============================] - 0s 0us/step

데이터 읽기

먼저 텍스트를 살펴보십시오.

# Read, then decode for py2 compat.
text = open(path_to_file, 'rb').read().decode(encoding='utf-8')
# length of text is the number of characters in it
print(f'Length of text: {len(text)} characters')
Length of text: 1115394 characters
# Take a look at the first 250 characters in text
print(text[:250])
First Citizen:
Before we proceed any further, hear me speak.

All:
Speak, speak.

First Citizen:
You are all resolved rather to die than to famish?

All:
Resolved. resolved.

First Citizen:
First, you know Caius Marcius is chief enemy to the people.
# The unique characters in the file
vocab = sorted(set(text))
print(f'{len(vocab)} unique characters')
65 unique characters

텍스트 처리

텍스트를 벡터화

훈련하기 전에 문자열을 숫자 표현으로 변환해야 합니다.

preprocessing.StringLookup 층이 숫자 ID로 각 문자를 변환 할 수 있습니다. 먼저 텍스트를 토큰으로 분할하기만 하면 됩니다.

example_texts = ['abcdefg', 'xyz']

chars = tf.strings.unicode_split(example_texts, input_encoding='UTF-8')
chars
2021-08-11 18:24:53.295402: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-11 18:24:53.303654: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-11 18:24:53.304580: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-11 18:24:53.306209: I tensorflow/core/platform/cpu_feature_guard.cc:142] This TensorFlow binary is optimized with oneAPI Deep Neural Network Library (oneDNN) to use the following CPU instructions in performance-critical operations:  AVX2 AVX512F FMA
To enable them in other operations, rebuild TensorFlow with the appropriate compiler flags.
2021-08-11 18:24:53.306828: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-11 18:24:53.307802: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-11 18:24:53.308798: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-11 18:24:53.896425: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-11 18:24:53.897329: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-11 18:24:53.898198: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-11 18:24:53.899171: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1510] Created device /job:localhost/replica:0/task:0/device:GPU:0 with 14648 MB memory:  -> device: 0, name: Tesla V100-SXM2-16GB, pci bus id: 0000:00:05.0, compute capability: 7.0
<tf.RaggedTensor [[b'a', b'b', b'c', b'd', b'e', b'f', b'g'], [b'x', b'y', b'z']]>

이제 생성 preprocessing.StringLookup 레이어를 :

ids_from_chars = preprocessing.StringLookup(
    vocabulary=list(vocab), mask_token=None)

양식 토큰을 문자 ID로 변환합니다.

ids = ids_from_chars(chars)
ids
<tf.RaggedTensor [[40, 41, 42, 43, 44, 45, 46], [63, 64, 65]]>

이 자습서의 목표는 텍스트를 생성하는 것이므로 이 표현을 반전하고 사람이 읽을 수 있는 문자열을 복구하는 것도 중요합니다. 이 사용할 수있는 위해 preprocessing.StringLookup(..., invert=True) .

chars_from_ids = tf.keras.layers.experimental.preprocessing.StringLookup(
    vocabulary=ids_from_chars.get_vocabulary(), invert=True, mask_token=None)

이 계층은 같은 ID의 벡터에서 문자 및 반환을 복구 tf.RaggedTensor 문자를 :

chars = chars_from_ids(ids)
chars
<tf.RaggedTensor [[b'a', b'b', b'c', b'd', b'e', b'f', b'g'], [b'x', b'y', b'z']]>

당신은 할 수 tf.strings.reduce_join 문자열로 다시 문자를 가입 할 수 있습니다.

tf.strings.reduce_join(chars, axis=-1).numpy()
array([b'abcdefg', b'xyz'], dtype=object)
def text_from_ids(ids):
  return tf.strings.reduce_join(chars_from_ids(ids), axis=-1)

예측 작업

한 문자 또는 일련의 문자가 주어졌을 때 가장 가능성이 높은 다음 문자는 무엇입니까? 이것은 수행할 모델을 훈련시키는 작업입니다. 모델에 대한 입력은 일련의 문자가 될 것이며, 각 시간 단계에서 다음 문자인 출력을 예측하도록 모델을 훈련합니다.

RNN은 지금까지 계산된 모든 문자가 주어지면 이전에 본 요소에 의존하는 내부 상태를 유지하므로 다음 문자는 무엇입니까?

교육 예제 및 대상 만들기

다음으로 텍스트를 예제 시퀀스로 나눕니다. 각 입력 시퀀스가 포함됩니다 seq_length 텍스트 문자를.

각 입력 시퀀스에 대해 해당 대상은 오른쪽으로 한 문자 이동한 것을 제외하고 동일한 길이의 텍스트를 포함합니다.

그래서 덩어리에 텍스트 휴식 seq_length+1 . 예를 들어, 말을 seq_length 4이며, 우리의 텍스트가 "안녕하세요"입니다. 입력 시퀀스는 "Hell"이고 대상 시퀀스는 "ello"입니다.

다음은이 처음 사용 수행 tf.data.Dataset.from_tensor_slices 문자 인덱스의 스트림으로 텍스트를 벡터로 변환하는 기능을합니다.

all_ids = ids_from_chars(tf.strings.unicode_split(text, 'UTF-8'))
all_ids
<tf.Tensor: shape=(1115394,), dtype=int64, numpy=array([19, 48, 57, ..., 46,  9,  1])>
ids_dataset = tf.data.Dataset.from_tensor_slices(all_ids)
for ids in ids_dataset.take(10):
    print(chars_from_ids(ids).numpy().decode('utf-8'))
F
i
r
s
t
 
C
i
t
i
seq_length = 100
examples_per_epoch = len(text)//(seq_length+1)

batch 방법을 사용하면 쉽게 원하는 크기의 순서로 이러한 개별 문자를 변환 할 수 있습니다.

sequences = ids_dataset.batch(seq_length+1, drop_remainder=True)

for seq in sequences.take(1):
  print(chars_from_ids(seq))
tf.Tensor(
[b'F' b'i' b'r' b's' b't' b' ' b'C' b'i' b't' b'i' b'z' b'e' b'n' b':'
 b'\n' b'B' b'e' b'f' b'o' b'r' b'e' b' ' b'w' b'e' b' ' b'p' b'r' b'o'
 b'c' b'e' b'e' b'd' b' ' b'a' b'n' b'y' b' ' b'f' b'u' b'r' b't' b'h'
 b'e' b'r' b',' b' ' b'h' b'e' b'a' b'r' b' ' b'm' b'e' b' ' b's' b'p'
 b'e' b'a' b'k' b'.' b'\n' b'\n' b'A' b'l' b'l' b':' b'\n' b'S' b'p' b'e'
 b'a' b'k' b',' b' ' b's' b'p' b'e' b'a' b'k' b'.' b'\n' b'\n' b'F' b'i'
 b'r' b's' b't' b' ' b'C' b'i' b't' b'i' b'z' b'e' b'n' b':' b'\n' b'Y'
 b'o' b'u' b' '], shape=(101,), dtype=string)

토큰을 다시 문자열로 결합하면 이것이 무엇을 하는지 더 쉽게 알 수 있습니다.

for seq in sequences.take(5):
  print(text_from_ids(seq).numpy())
b'First Citizen:\nBefore we proceed any further, hear me speak.\n\nAll:\nSpeak, speak.\n\nFirst Citizen:\nYou '
b'are all resolved rather to die than to famish?\n\nAll:\nResolved. resolved.\n\nFirst Citizen:\nFirst, you k'
b"now Caius Marcius is chief enemy to the people.\n\nAll:\nWe know't, we know't.\n\nFirst Citizen:\nLet us ki"
b"ll him, and we'll have corn at our own price.\nIs't a verdict?\n\nAll:\nNo more talking on't; let it be d"
b'one: away, away!\n\nSecond Citizen:\nOne word, good citizens.\n\nFirst Citizen:\nWe are accounted poor citi'

훈련을 위해 당신의 데이터 세트가 필요합니다 (input, label) 쌍을. 어디에서 inputlabel 순서입니다. 각 시간 단계에서 입력은 현재 문자이고 레이블은 다음 문자입니다.

다음은 시퀀스를 입력으로 받아 복제하고 이동하여 각 시간 단계에 대한 입력과 레이블을 정렬하는 함수입니다.

def split_input_target(sequence):
    input_text = sequence[:-1]
    target_text = sequence[1:]
    return input_text, target_text
split_input_target(list("Tensorflow"))
(['T', 'e', 'n', 's', 'o', 'r', 'f', 'l', 'o'],
 ['e', 'n', 's', 'o', 'r', 'f', 'l', 'o', 'w'])
dataset = sequences.map(split_input_target)
for input_example, target_example in dataset.take(1):
    print("Input :", text_from_ids(input_example).numpy())
    print("Target:", text_from_ids(target_example).numpy())
Input : b'First Citizen:\nBefore we proceed any further, hear me speak.\n\nAll:\nSpeak, speak.\n\nFirst Citizen:\nYou'
Target: b'irst Citizen:\nBefore we proceed any further, hear me speak.\n\nAll:\nSpeak, speak.\n\nFirst Citizen:\nYou '
2021-08-11 18:24:54.893532: I tensorflow/compiler/mlir/mlir_graph_optimization_pass.cc:185] None of the MLIR Optimization Passes are enabled (registered 2)

훈련 배치 생성

당신은 사용 tf.data 관리 시퀀스에 텍스트를 분할 할 수 있습니다. 그러나 이 데이터를 모델에 제공하기 전에 데이터를 섞고 일괄 처리해야 합니다.

# Batch size
BATCH_SIZE = 64

# Buffer size to shuffle the dataset
# (TF data is designed to work with possibly infinite sequences,
# so it doesn't attempt to shuffle the entire sequence in memory. Instead,
# it maintains a buffer in which it shuffles elements).
BUFFER_SIZE = 10000

dataset = (
    dataset
    .shuffle(BUFFER_SIZE)
    .batch(BATCH_SIZE, drop_remainder=True)
    .prefetch(tf.data.experimental.AUTOTUNE))

dataset
<PrefetchDataset shapes: ((64, 100), (64, 100)), types: (tf.int64, tf.int64)>

모델 구축

이 섹션에서는 같은 모델을 정의 keras.Model 서브 클래스 (자세한 내용은 참조하십시오 서브 클래스를 통해 새로운 레이어와 모델을 만들기 ).

이 모델에는 세 개의 레이어가 있습니다.

  • tf.keras.layers.Embedding : 입력 층. 벡터와 각 캐릭터 ID 매핑하는 학습 가능한 룩업 테이블 embedding_dim 치수;
  • tf.keras.layers.GRU : 크기와 RNN의 유형 units=rnn_units (또한 여기에 LSTM 층을 사용할 수 있습니다.)
  • tf.keras.layers.Dense : 출력층와 vocab_size 출력한다. 어휘의 각 문자에 대해 하나의 로짓을 출력합니다. 이는 모델에 따른 각 문자의 로그 가능성입니다.
# Length of the vocabulary in chars
vocab_size = len(vocab)

# The embedding dimension
embedding_dim = 256

# Number of RNN units
rnn_units = 1024
class MyModel(tf.keras.Model):
  def __init__(self, vocab_size, embedding_dim, rnn_units):
    super().__init__(self)
    self.embedding = tf.keras.layers.Embedding(vocab_size, embedding_dim)
    self.gru = tf.keras.layers.GRU(rnn_units,
                                   return_sequences=True,
                                   return_state=True)
    self.dense = tf.keras.layers.Dense(vocab_size)

  def call(self, inputs, states=None, return_state=False, training=False):
    x = inputs
    x = self.embedding(x, training=training)
    if states is None:
      states = self.gru.get_initial_state(x)
    x, states = self.gru(x, initial_state=states, training=training)
    x = self.dense(x, training=training)

    if return_state:
      return x, states
    else:
      return x
model = MyModel(
    # Be sure the vocabulary size matches the `StringLookup` layers.
    vocab_size=len(ids_from_chars.get_vocabulary()),
    embedding_dim=embedding_dim,
    rnn_units=rnn_units)

각 문자에 대해 모델은 임베딩을 조회하고 임베딩을 입력으로 사용하여 GRU를 한 단계 실행하고 밀집 계층을 적용하여 다음 문자의 로그 가능성을 예측하는 로짓을 생성합니다.

모델을 통과하는 데이터의 도면

모델을 사용해보십시오

이제 모델을 실행하여 예상대로 작동하는지 확인합니다.

먼저 출력의 모양을 확인하십시오.

for input_example_batch, target_example_batch in dataset.take(1):
    example_batch_predictions = model(input_example_batch)
    print(example_batch_predictions.shape, "# (batch_size, sequence_length, vocab_size)")
2021-08-11 18:24:57.345541: I tensorflow/stream_executor/cuda/cuda_dnn.cc:369] Loaded cuDNN version 8100
(64, 100, 66) # (batch_size, sequence_length, vocab_size)

위 예에서의 입력 시퀀스 길이는 100 이지만 모델은 임의의 길이의 입력을 실행할 수있다 :

model.summary()
Model: "my_model"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
embedding (Embedding)        multiple                  16896     
_________________________________________________________________
gru (GRU)                    multiple                  3938304   
_________________________________________________________________
dense (Dense)                multiple                  67650     
=================================================================
Total params: 4,022,850
Trainable params: 4,022,850
Non-trainable params: 0
_________________________________________________________________

모델에서 실제 예측을 얻으려면 출력 분포에서 샘플링하여 실제 문자 인덱스를 가져와야 합니다. 이 분포는 문자 어휘에 대한 로짓으로 정의됩니다.

배치의 첫 번째 예에 대해 시도해 보십시오.

sampled_indices = tf.random.categorical(example_batch_predictions[0], num_samples=1)
sampled_indices = tf.squeeze(sampled_indices, axis=-1).numpy()

이것은 각 시간 단계에서 다음 문자 인덱스에 대한 예측을 제공합니다.

sampled_indices
array([41, 38,  9, 28,  6, 50, 20, 59, 44,  5, 51, 19, 40, 61, 13, 18, 32,
        0, 13,  0, 27, 37, 10, 46, 38, 40, 28, 22, 14, 44, 35, 22, 44, 16,
       17,  8, 55, 17, 39, 47, 47, 23,  3, 32, 30, 15, 10, 32,  8,  8,  3,
       47, 40, 38, 13,  5, 57, 12, 39,  5,  6, 14, 30, 12, 63, 51, 10, 14,
       52,  1, 47, 15, 48, 28, 38, 16, 22,  7, 59, 45, 44, 62, 23, 32, 36,
       40, 28, 65, 60,  7,  8,  0, 19, 28, 32, 62, 61, 20, 64,  6])

이 훈련되지 않은 모델에 의해 예측된 텍스트를 보려면 이를 디코딩하십시오.

print("Input:\n", text_from_ids(input_example_batch[0]).numpy())
print()
print("Next Char Predictions:\n", text_from_ids(sampled_indices).numpy())
Input:
 b'ous, and not valiant, you have shamed me\nIn your condemned seconds.\n\nCOMINIUS:\nIf I should tell thee'

Next Char Predictions:
 b"bY.O'kGte&lFav?ES[UNK]?[UNK]NX3gYaOIAeVIeCD-pDZhhJ!SQB3S--!haY?&r;Z&'AQ;xl3Am\nhBiOYCI,tfewJSWaOzu,-[UNK]FOSwvGy'"

모델 훈련

이 시점에서 문제는 표준 분류 문제로 취급될 수 있습니다. 이전 RNN 상태와 이 시간 단계의 입력이 주어지면 다음 문자의 클래스를 예측합니다.

옵티마이저와 손실 함수를 붙입니다.

표준 tf.keras.losses.sparse_categorical_crossentropy 이 예측의 마지막 차원에 걸쳐 적용되므로 손실 함수는이 경우에 작동합니다.

모델이 logits을 반환하기 때문에, 당신은 설정해야 from_logits 플래그.

loss = tf.losses.SparseCategoricalCrossentropy(from_logits=True)
example_batch_loss = loss(target_example_batch, example_batch_predictions)
mean_loss = example_batch_loss.numpy().mean()
print("Prediction shape: ", example_batch_predictions.shape, " # (batch_size, sequence_length, vocab_size)")
print("Mean loss:        ", mean_loss)
Prediction shape:  (64, 100, 66)  # (batch_size, sequence_length, vocab_size)
Mean loss:         4.191435

새로 초기화된 모델은 스스로를 너무 확신해서는 안 되며, 출력 로짓은 모두 비슷한 크기를 가져야 합니다. 이를 확인하기 위해 평균 손실의 지수가 어휘 크기와 거의 같은지 확인할 수 있습니다. 훨씬 높은 손실은 모델이 잘못된 답을 확신하고 잘못 초기화되었음을 의미합니다.

tf.exp(mean_loss).numpy()
66.11759

사용하여 교육 과정 구성 tf.keras.Model.compile 방법을. Use tf.keras.optimizers.Adam 기본 인수 및 손실 기능.

model.compile(optimizer='adam', loss=loss)

체크포인트 구성

용도 tf.keras.callbacks.ModelCheckpoint 체크 포인트는 훈련 기간 동안 저장되는 것을 보장하기 위해 :

# Directory where the checkpoints will be saved
checkpoint_dir = './training_checkpoints'
# Name of the checkpoint files
checkpoint_prefix = os.path.join(checkpoint_dir, "ckpt_{epoch}")

checkpoint_callback = tf.keras.callbacks.ModelCheckpoint(
    filepath=checkpoint_prefix,
    save_weights_only=True)

훈련을 실행

훈련 시간을 합리적으로 유지하려면 10 Epoch를 사용하여 모델을 훈련합니다. Colab에서 더 빠른 학습을 위해 런타임을 GPU로 설정합니다.

EPOCHS = 20
history = model.fit(dataset, epochs=EPOCHS, callbacks=[checkpoint_callback])
Epoch 1/20
172/172 [==============================] - 6s 23ms/step - loss: 2.7361
Epoch 2/20
172/172 [==============================] - 5s 23ms/step - loss: 2.0067
Epoch 3/20
172/172 [==============================] - 5s 23ms/step - loss: 1.7364
Epoch 4/20
172/172 [==============================] - 5s 23ms/step - loss: 1.5729
Epoch 5/20
172/172 [==============================] - 5s 23ms/step - loss: 1.4700
Epoch 6/20
172/172 [==============================] - 5s 23ms/step - loss: 1.4000
Epoch 7/20
172/172 [==============================] - 5s 23ms/step - loss: 1.3465
Epoch 8/20
172/172 [==============================] - 5s 23ms/step - loss: 1.3007
Epoch 9/20
172/172 [==============================] - 5s 23ms/step - loss: 1.2610
Epoch 10/20
172/172 [==============================] - 5s 23ms/step - loss: 1.2223
Epoch 11/20
172/172 [==============================] - 5s 23ms/step - loss: 1.1842
Epoch 12/20
172/172 [==============================] - 5s 23ms/step - loss: 1.1460
Epoch 13/20
172/172 [==============================] - 5s 23ms/step - loss: 1.1055
Epoch 14/20
172/172 [==============================] - 5s 23ms/step - loss: 1.0626
Epoch 15/20
172/172 [==============================] - 5s 24ms/step - loss: 1.0170
Epoch 16/20
172/172 [==============================] - 5s 23ms/step - loss: 0.9692
Epoch 17/20
172/172 [==============================] - 5s 23ms/step - loss: 0.9181
Epoch 18/20
172/172 [==============================] - 5s 23ms/step - loss: 0.8670
Epoch 19/20
172/172 [==============================] - 5s 23ms/step - loss: 0.8143
Epoch 20/20
172/172 [==============================] - 5s 23ms/step - loss: 0.7647

텍스트 생성

이 모델로 텍스트를 생성하는 가장 간단한 방법은 루프에서 실행하고 실행할 때 모델의 내부 상태를 추적하는 것입니다.

텍스트를 생성하려면 모델의 출력이 입력으로 피드백됩니다.

모델을 호출할 때마다 일부 텍스트와 내부 상태를 전달합니다. 모델은 다음 문자와 새 상태에 대한 예측을 반환합니다. 텍스트 생성을 계속하려면 예측 및 상태를 다시 전달하십시오.

다음은 단일 단계 예측을 수행합니다.

class OneStep(tf.keras.Model):
  def __init__(self, model, chars_from_ids, ids_from_chars, temperature=1.0):
    super().__init__()
    self.temperature = temperature
    self.model = model
    self.chars_from_ids = chars_from_ids
    self.ids_from_chars = ids_from_chars

    # Create a mask to prevent "[UNK]" from being generated.
    skip_ids = self.ids_from_chars(['[UNK]'])[:, None]
    sparse_mask = tf.SparseTensor(
        # Put a -inf at each bad index.
        values=[-float('inf')]*len(skip_ids),
        indices=skip_ids,
        # Match the shape to the vocabulary
        dense_shape=[len(ids_from_chars.get_vocabulary())])
    self.prediction_mask = tf.sparse.to_dense(sparse_mask)

  @tf.function
  def generate_one_step(self, inputs, states=None):
    # Convert strings to token IDs.
    input_chars = tf.strings.unicode_split(inputs, 'UTF-8')
    input_ids = self.ids_from_chars(input_chars).to_tensor()

    # Run the model.
    # predicted_logits.shape is [batch, char, next_char_logits]
    predicted_logits, states = self.model(inputs=input_ids, states=states,
                                          return_state=True)
    # Only use the last prediction.
    predicted_logits = predicted_logits[:, -1, :]
    predicted_logits = predicted_logits/self.temperature
    # Apply the prediction mask: prevent "[UNK]" from being generated.
    predicted_logits = predicted_logits + self.prediction_mask

    # Sample the output logits to generate token IDs.
    predicted_ids = tf.random.categorical(predicted_logits, num_samples=1)
    predicted_ids = tf.squeeze(predicted_ids, axis=-1)

    # Convert from token ids to characters
    predicted_chars = self.chars_from_ids(predicted_ids)

    # Return the characters and model state.
    return predicted_chars, states
one_step_model = OneStep(model, chars_from_ids, ids_from_chars)

루프에서 실행하여 일부 텍스트를 생성합니다. 생성된 텍스트를 보면 모델이 대문자를 사용하고 단락을 만들고 셰익스피어와 같은 쓰기 어휘를 모방할 때를 알고 있음을 알 수 있습니다. 훈련 에포크의 수가 적기 때문에 일관된 문장을 형성하는 법을 아직 배우지 못했습니다.

start = time.time()
states = None
next_char = tf.constant(['ROMEO:'])
result = [next_char]

for n in range(1000):
  next_char, states = one_step_model.generate_one_step(next_char, states=states)
  result.append(next_char)

result = tf.strings.join(result)
end = time.time()
print(result[0].numpy().decode('utf-8'), '\n\n' + '_'*80)
print('\nRun time:', end - start)
ROMEO:
It is a very example
Here done to Elcompash of her griefs, wherein Choise,
Without my enemy; you are o'er this scene
Thoughts that sown'd off to have a sufficient mon
hath made it on the people, break our case:
Who inciddst the hour, think you be gone?

MENENIUS:
For what I see, I doubt there was more periol to their friends?

GLOUCESTER:
Have you not hear? the senate pass down forth,
Countenance, prefermants, devised in courtezage,
Of it at punishes, and cry batter King Henry's use!

JULIET:
If they did I but last; I say to thir,
And fly: my vooking in those thing, it brings;
After an act, may stand in my foe instant?

FRIAR LAURENCE:
So much upon the serving-creature.

Second Katharinan,
Save you this young father, news, will kiss
your honour to a covert fance to Farcius' blaze is expiled
till choose and call the foem of cheer himself.
Not so deliver, for this night shall be a cut-out
Yourselfs; as the flowers cannot no: what he pleg-son,
As the pay to her heavy, marches?

MARCIUS:
 

________________________________________________________________________________

Run time: 2.3087921142578125

당신이 결과를 개선하기 위해 할 수있는 가장 쉬운 것은 이상 (시도에 위해를 양성하는 것입니다 EPOCHS = 30 ).

다른 시작 문자열로 실험하거나 다른 RNN 레이어를 추가하여 모델의 정확도를 향상시키거나 온도 매개변수를 조정하여 더 많거나 적은 임의의 예측을 생성할 수도 있습니다.

당신이 모델이 더 빠르게 텍스트를 생성하려면 당신이 할 수있는 가장 쉬운 방법은 일괄 텍스트 생성합니다. 아래 예에서 모델은 위의 1개를 생성하는 데 걸리는 시간과 거의 동일한 시간에 5개의 출력을 생성합니다.

start = time.time()
states = None
next_char = tf.constant(['ROMEO:', 'ROMEO:', 'ROMEO:', 'ROMEO:', 'ROMEO:'])
result = [next_char]

for n in range(1000):
  next_char, states = one_step_model.generate_one_step(next_char, states=states)
  result.append(next_char)

result = tf.strings.join(result)
end = time.time()
print(result, '\n\n' + '_'*80)
print('\nRun time:', end - start)
tf.Tensor(
[b"ROMEO:\nIt is my daughter, whom thou hast, no, no, what many which ho\ncaused for fear. Then?\n\nFirst Citizen:\nCousin of Buckingham, and therefore wast thou thin,\nBy Jove her thunder, not on him.\n\nFLORIZEL:\nMy lord,\nYou never spow him so perform her life;\nBut had thought the wanted counsel on the world,\nThe baid of old tale from him by foes,\nLike all forms, he doth not the duke well for herself.\nThe sons and fam is strucken murder;\nAnd bless he shall not be long.\nWhereto he better nothing, by the east,\nWas factionary against Exeter!\n\nHERMION:\nWhere is your pain? hings in a soldier.\n\nShepherd:\n'Tis south; I will not go by this; he loves' me\nThough noble Contro's shump.\n\nAEdile:\nHe's sudden; tood my friends are too sun\nPat on him an embastiest York by day, my liege,\nProfesses to follow Marcius.\n\nCOMINIUS:\nIt was come to us!\nBut, our queen, those weeping pay the formers any other;\nAnon even he should seem to dry.\n\nHESS OF YORK:\nMy lord, he both be so farther,\nBut 'tis as banish'd from the mind of "
 b"ROMEO:\nIt is spoke for triumphant garly, fis\nFresh out my daughter and the deed-joy\njeasons that I was lost innation and eyes from the\nthy glims.\n\nFROTH:\nHere comes this way, and sellow'd for and\nspeechange; cry 'D; inchance his down and with the or-house,\nWhere indeed the sedicing scholarging disdains\nDrows you.\n\nAlipan:\nWhere's Clifford; we will confess too,\nOr, by this song, nor pray now what I did\nHer uncle Rivers stands you to take away;\nBut in the like known thereof discresed at his\nheart wept humble as a pitch'd any right.\nWhereto I, 'Hill Henry, and you, my lord,\nKnow't again by Angelo, the head maid\nFalse to another scorns thus daring for\nAn angry ay angry. Veriling you\nThan which you are heart, gave war nor none within;\nTell he that first wretched to her dower, though it begin.\n\nDUKE VINCENTIO:\nWhere is Aufidius sister? how much factos loath\nto pride: King Richard in Bianco's singing.\n\nMARIANA:\nWhy art thou harst: for, to retire yourself\nTo County many thousand humble stains.\nSawnt"
 b"ROMEO:\nSatisfy!\nThink'st thou hast thou out of true applace: throw away\nThe rather for incapab-torment.\n\nGLoUCESTER:\nSo Gaunt in Eye wrong'd, belike.\n\nQUEEN:\n'Tis little friend, thou couldst know; mencle, Clifford.\nDid ut up the flesh; the sons and blubter\nTannot countervail the conquest of thyself.\nBut how must be a king, as hideous ass\nShould you go's assural trembling adjer!\nWhy shall deserve you but assuar their\ncoats of such persons to be your castle.\nCondemning soul to him and heir more than\nHer sups, moresely three women\none and a hongy: you have like his curediar,\nAnd chase him in the infirmine breachs.\n\nKING EDWARD IV:\nCansault thou son? She's a word.\n\nSICINIUS:\nThis shows assurance how the house of love\nLidst both our subjects as the senate's death;\nSoce thou consent to bitter, by the way to life\nBut my entity to give I agree:\nHield!\n\nBUCKINGHAM:\nMy lord, this last out with our complexions\nCherish rooted distapsups and call folls.\n\nLADY ANNE:\nWere he that wonders to us all the chan"
 b"ROMEO:\nI pray you, gentlemen.\n\nJULIET:\nMy lord, gath nothing in Padua for a\npiece of cut as a horseman I please;\nI'll follow what we speak again of love,\nIs broke an oath from false for me.\n\nGLOUCESTER:\nWell, jost ignorant of despite of my grief;\nAnd thus I pity three thou wast born.\n\nQUEEN ELIZABETH:\nWhy have you not done, Henry's coming smiles,\n'Tis like one inferious vengeance condemn'd\nBy Heavens and noblence foldying\nto her honour. what he comes long eate?\n\nHASTINGS:\nGo, get thee even to thus, that flies;\nI would adont the royally out of dist;\nAnd thus I turn and much since that make fair\nSun with such finger in quiet wnat, and Sariant\nShould have been either queen.\n\nISABELLA:\nPetruchio! Who is is the supper venge.\n\nSecond Murderer:\nO looken soul!\n\nA Forders, Earl of Clarence,--here is coming him.\n\nHORTENSIO:\nSay, when you saw you shall bectwary.\n\nCOMINIUS:\nYou have fought it the elder, the\nson: xishonour here the soretire passing slaves.\nAnd in his tidly I brought my good deed,\nAre nev"
 b"ROMEO:\nVillanted the blood reign purpose\nnot more and she would quench it. Should Such a\npentinus lipt from worth of charity.\nHow can we fing it, like a drum of me?\nSpeak, tending, O, how can I have seen your\nsaids, lest the hirs weeping earth, one shall\nIn such as you to bitter, but we east for King of\nThe pretties of his officer: yet your bey,\nThe curn'd deputy nexty. Tybalt, that's\nunfortunage, take this poor delivers to a friend,\nAnd grief hath kept in sign of knotking note.\nWelcome! Saint yet Murderer: to this scoldif cares\nThat I have not in my desire.\nNay, what will you such things prevent it, hands.\n\nKING RICHARD II:\nHow now, by thee!\n\nCLAUDIO:\nNo, good father.\n\nDUKE VINCENTIO:\nHow now, is gone to Raptatur, add, took fortune between\nmy life for time put forth parture most straitle queen's.\n\nHENRY BOLINGBROKE:\nUrge in any, unhappy by this news,\nWhilst thou lies She not remain, as if\nher fortune is not so rise report the queen?\n\nGLOUCESTER:\nStand up, Oncring me?\n\nLADYARAN:\n\nHERMIONE:\nN"], shape=(5,), dtype=string) 

________________________________________________________________________________

Run time: 2.1990060806274414

발전기 내보내기

이 단일 단계 모델은 쉽게 할 수 저장 및 복원 당신이 어디를 사용할 수 있도록 tf.saved_model 허용됩니다.

tf.saved_model.save(one_step_model, 'one_step')
one_step_reloaded = tf.saved_model.load('one_step')
WARNING:tensorflow:Skipping full serialization of Keras layer <__main__.OneStep object at 0x7fdfad429d90>, because it is not built.
2021-08-11 18:26:53.785069: W tensorflow/python/util/util.cc:348] Sets are not currently considered sequences, but this may change in the future, so consider avoiding using them.
WARNING:absl:Found untraced functions such as gru_cell_layer_call_fn, gru_cell_layer_call_and_return_conditional_losses, gru_cell_layer_call_fn, gru_cell_layer_call_and_return_conditional_losses, gru_cell_layer_call_and_return_conditional_losses while saving (showing 5 of 5). These functions will not be directly callable after loading.
INFO:tensorflow:Assets written to: one_step/assets
INFO:tensorflow:Assets written to: one_step/assets
states = None
next_char = tf.constant(['ROMEO:'])
result = [next_char]

for n in range(100):
  next_char, states = one_step_reloaded.generate_one_step(next_char, states=states)
  result.append(next_char)

print(tf.strings.join(result)[0].numpy().decode("utf-8"))
ROMEO:
Be a booqued banish'd: sly us or old
Yeed Margaret: and therefore follow'd there?

BUCKINGHAM:
Why,

고급: 맞춤형 교육

위의 훈련 절차는 간단하지만 많은 제어를 제공하지 않습니다. 잘못된 예측이 모델에 피드백되는 것을 방지하는 교사 강제를 사용하므로 모델은 실수로부터 복구하는 법을 배우지 않습니다.

이제 모델을 수동으로 실행하는 방법을 살펴보았으므로 이제 훈련 루프를 구현합니다. 예를 들어,이 모델의 오픈 루프 출력을 안정화하는 교과 과정 학습을 구현하려는 경우에는 시작점을 제공합니다.

맞춤형 훈련 루프의 가장 중요한 부분은 훈련 단계 함수입니다.

사용 tf.GradientTape 그라디언트를 추적 할 수 있습니다. 당신은 읽는이 방법에 대해 자세히 알아볼 수 있습니다 열망 실행 가이드 .

기본 절차는 다음과 같습니다.

  1. 모델을 실행하고 아래의 손실 계산 tf.GradientTape .
  2. 업데이트를 계산하고 최적화 프로그램을 사용하여 모델에 적용합니다.
class CustomTraining(MyModel):
  @tf.function
  def train_step(self, inputs):
      inputs, labels = inputs
      with tf.GradientTape() as tape:
          predictions = self(inputs, training=True)
          loss = self.loss(labels, predictions)
      grads = tape.gradient(loss, model.trainable_variables)
      self.optimizer.apply_gradients(zip(grads, model.trainable_variables))

      return {'loss': loss}

위의 구현 train_step 방법은 다음 Keras ' train_step 규칙 . 이것은 선택 사항이지만, 그것은 당신이 기차 단계의 동작을 변경하고 여전히 keras '사용할 수 있습니다 Model.compileModel.fit 방법.

model = CustomTraining(
    vocab_size=len(ids_from_chars.get_vocabulary()),
    embedding_dim=embedding_dim,
    rnn_units=rnn_units)
model.compile(optimizer = tf.keras.optimizers.Adam(),
              loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True))
model.fit(dataset, epochs=1)
172/172 [==============================] - 7s 23ms/step - loss: 2.7296
<keras.callbacks.History at 0x7fdfad7bf090>

또는 더 많은 제어가 필요한 경우 자신만의 완전한 맞춤형 훈련 루프를 작성할 수 있습니다.

EPOCHS = 10

mean = tf.metrics.Mean()

for epoch in range(EPOCHS):
    start = time.time()

    mean.reset_states()
    for (batch_n, (inp, target)) in enumerate(dataset):
        logs = model.train_step([inp, target])
        mean.update_state(logs['loss'])

        if batch_n % 50 == 0:
            template = f"Epoch {epoch+1} Batch {batch_n} Loss {logs['loss']:.4f}"
            print(template)

    # saving (checkpoint) the model every 5 epochs
    if (epoch + 1) % 5 == 0:
        model.save_weights(checkpoint_prefix.format(epoch=epoch))

    print()
    print(f'Epoch {epoch+1} Loss: {mean.result().numpy():.4f}')
    print(f'Time taken for 1 epoch {time.time() - start:.2f} sec')
    print("_"*80)

model.save_weights(checkpoint_prefix.format(epoch=epoch))
Epoch 1 Batch 0 Loss 2.1729
Epoch 1 Batch 50 Loss 2.0531
Epoch 1 Batch 100 Loss 1.9573
Epoch 1 Batch 150 Loss 1.8028

Epoch 1 Loss: 1.9959
Time taken for 1 epoch 5.83 sec
________________________________________________________________________________
Epoch 2 Batch 0 Loss 1.8247
Epoch 2 Batch 50 Loss 1.7950
Epoch 2 Batch 100 Loss 1.7317
Epoch 2 Batch 150 Loss 1.6410

Epoch 2 Loss: 1.7202
Time taken for 1 epoch 5.28 sec
________________________________________________________________________________
Epoch 3 Batch 0 Loss 1.6101
Epoch 3 Batch 50 Loss 1.5863
Epoch 3 Batch 100 Loss 1.5252
Epoch 3 Batch 150 Loss 1.5194

Epoch 3 Loss: 1.5582
Time taken for 1 epoch 5.23 sec
________________________________________________________________________________
Epoch 4 Batch 0 Loss 1.4622
Epoch 4 Batch 50 Loss 1.4623
Epoch 4 Batch 100 Loss 1.4729
Epoch 4 Batch 150 Loss 1.4334

Epoch 4 Loss: 1.4580
Time taken for 1 epoch 5.30 sec
________________________________________________________________________________
Epoch 5 Batch 0 Loss 1.4144
Epoch 5 Batch 50 Loss 1.4157
Epoch 5 Batch 100 Loss 1.3952
Epoch 5 Batch 150 Loss 1.3634

Epoch 5 Loss: 1.3902
Time taken for 1 epoch 5.48 sec
________________________________________________________________________________
Epoch 6 Batch 0 Loss 1.3419
Epoch 6 Batch 50 Loss 1.3228
Epoch 6 Batch 100 Loss 1.3308
Epoch 6 Batch 150 Loss 1.3092

Epoch 6 Loss: 1.3365
Time taken for 1 epoch 5.22 sec
________________________________________________________________________________
Epoch 7 Batch 0 Loss 1.3353
Epoch 7 Batch 50 Loss 1.2958
Epoch 7 Batch 100 Loss 1.2993
Epoch 7 Batch 150 Loss 1.3049

Epoch 7 Loss: 1.2915
Time taken for 1 epoch 5.33 sec
________________________________________________________________________________
Epoch 8 Batch 0 Loss 1.2323
Epoch 8 Batch 50 Loss 1.2712
Epoch 8 Batch 100 Loss 1.2089
Epoch 8 Batch 150 Loss 1.2661

Epoch 8 Loss: 1.2513
Time taken for 1 epoch 5.21 sec
________________________________________________________________________________
Epoch 9 Batch 0 Loss 1.2154
Epoch 9 Batch 50 Loss 1.2268
Epoch 9 Batch 100 Loss 1.2334
Epoch 9 Batch 150 Loss 1.2292

Epoch 9 Loss: 1.2124
Time taken for 1 epoch 5.24 sec
________________________________________________________________________________
Epoch 10 Batch 0 Loss 1.1712
Epoch 10 Batch 50 Loss 1.1542
Epoch 10 Batch 100 Loss 1.1887
Epoch 10 Batch 150 Loss 1.2040

Epoch 10 Loss: 1.1734
Time taken for 1 epoch 5.56 sec
________________________________________________________________________________