Сохраните дату! Google I / O возвращается 18-20 мая Зарегистрируйтесь сейчас
Эта страница переведена с помощью Cloud Translation API.
Switch to English

Создание новых слоев и моделей через создание подклассов

Посмотреть на TensorFlow.org Запускаем в Google Colab Посмотреть исходный код на GitHub Скачать блокнот

Настраивать

import tensorflow as tf
from tensorflow import keras

Класс Layer : комбинация состояния (весов) и некоторых вычислений

Одна из центральных абстракций в Keras - это класс Layer . Слой инкапсулирует как состояние («веса» слоя), так и преобразование входов в выходы («вызов», прямой проход уровня).

Вот плотно связанный слой. У него есть состояние: переменные w и b .

class Linear(keras.layers.Layer):
    def __init__(self, units=32, input_dim=32):
        super(Linear, self).__init__()
        w_init = tf.random_normal_initializer()
        self.w = tf.Variable(
            initial_value=w_init(shape=(input_dim, units), dtype="float32"),
            trainable=True,
        )
        b_init = tf.zeros_initializer()
        self.b = tf.Variable(
            initial_value=b_init(shape=(units,), dtype="float32"), trainable=True
        )

    def call(self, inputs):
        return tf.matmul(inputs, self.w) + self.b

Вы могли бы использовать слой, вызывая его на некотором вводе (ах) тензора, во многом как функция Python.

x = tf.ones((2, 2))
linear_layer = Linear(4, 2)
y = linear_layer(x)
print(y)
tf.Tensor(
[[ 8.9605771e-02 -5.8132906e-02 -2.3558782e-02 -5.9220940e-05]
 [ 8.9605771e-02 -5.8132906e-02 -2.3558782e-02 -5.9220940e-05]], shape=(2, 4), dtype=float32)

Обратите внимание, что веса w и b автоматически отслеживаются слоем при установке в качестве атрибутов слоя:

assert linear_layer.weights == [linear_layer.w, linear_layer.b]

Обратите внимание, что у вас также есть доступ к более быстрому ярлыку для добавления веса к слою: add_weight() :

class Linear(keras.layers.Layer):
    def __init__(self, units=32, input_dim=32):
        super(Linear, self).__init__()
        self.w = self.add_weight(
            shape=(input_dim, units), initializer="random_normal", trainable=True
        )
        self.b = self.add_weight(shape=(units,), initializer="zeros", trainable=True)

    def call(self, inputs):
        return tf.matmul(inputs, self.w) + self.b


x = tf.ones((2, 2))
linear_layer = Linear(4, 2)
y = linear_layer(x)
print(y)
tf.Tensor(
[[-0.00164011 -0.02662886  0.00616307  0.0370644 ]
 [-0.00164011 -0.02662886  0.00616307  0.0370644 ]], shape=(2, 4), dtype=float32)

Слои могут иметь необучаемые веса.

Помимо тренируемых весов, вы также можете добавить к слою веса, которые нельзя тренировать. Такие веса не должны учитываться во время обратного распространения ошибки, когда вы тренируете слой.

Вот как добавить и использовать нетренируемый вес:

class ComputeSum(keras.layers.Layer):
    def __init__(self, input_dim):
        super(ComputeSum, self).__init__()
        self.total = tf.Variable(initial_value=tf.zeros((input_dim,)), trainable=False)

    def call(self, inputs):
        self.total.assign_add(tf.reduce_sum(inputs, axis=0))
        return self.total


x = tf.ones((2, 2))
my_sum = ComputeSum(2)
y = my_sum(x)
print(y.numpy())
y = my_sum(x)
print(y.numpy())
[2. 2.]
[4. 4.]

Это часть layer.weights , но классифицируется как необучаемый вес:

print("weights:", len(my_sum.weights))
print("non-trainable weights:", len(my_sum.non_trainable_weights))

# It's not included in the trainable weights:
print("trainable_weights:", my_sum.trainable_weights)
weights: 1
non-trainable weights: 1
trainable_weights: []

Лучшая практика: отложить создание веса до тех пор, пока не станет известна форма входных данных.

Наш Linear слой выше принял аргумент input_dim который использовался для вычисления формы весов w и b в __init__() :

class Linear(keras.layers.Layer):
    def __init__(self, units=32, input_dim=32):
        super(Linear, self).__init__()
        self.w = self.add_weight(
            shape=(input_dim, units), initializer="random_normal", trainable=True
        )
        self.b = self.add_weight(shape=(units,), initializer="zeros", trainable=True)

    def call(self, inputs):
        return tf.matmul(inputs, self.w) + self.b

Во многих случаях вы можете не знать заранее размер ваших входных данных, и вы хотели бы лениво создавать веса, когда это значение становится известным, через некоторое время после создания экземпляра слоя.

В API build(self, inputs_shape) мы рекомендуем создавать веса слоя в методе build(self, inputs_shape) вашего слоя. Как это:

class Linear(keras.layers.Layer):
    def __init__(self, units=32):
        super(Linear, self).__init__()
        self.units = units

    def build(self, input_shape):
        self.w = self.add_weight(
            shape=(input_shape[-1], self.units),
            initializer="random_normal",
            trainable=True,
        )
        self.b = self.add_weight(
            shape=(self.units,), initializer="random_normal", trainable=True
        )

    def call(self, inputs):
        return tf.matmul(inputs, self.w) + self.b

Метод __call__() вашего слоя автоматически запустит сборку при первом вызове. Теперь у вас есть ленивый слой, который проще в использовании:

# At instantiation, we don't know on what inputs this is going to get called
linear_layer = Linear(32)

# The layer's weights are created dynamically the first time the layer is called
y = linear_layer(x)

Слои рекурсивно компонуются

Если вы назначите экземпляр Layer как атрибут другого слоя, внешний слой начнет отслеживать веса внутреннего слоя.

Мы рекомендуем создавать такие подслои в __init__() (поскольку подслои обычно имеют метод сборки, они будут построены при построении внешнего слоя).

# Let's assume we are reusing the Linear class
# with a `build` method that we defined above.


class MLPBlock(keras.layers.Layer):
    def __init__(self):
        super(MLPBlock, self).__init__()
        self.linear_1 = Linear(32)
        self.linear_2 = Linear(32)
        self.linear_3 = Linear(1)

    def call(self, inputs):
        x = self.linear_1(inputs)
        x = tf.nn.relu(x)
        x = self.linear_2(x)
        x = tf.nn.relu(x)
        return self.linear_3(x)


mlp = MLPBlock()
y = mlp(tf.ones(shape=(3, 64)))  # The first call to the `mlp` will create the weights
print("weights:", len(mlp.weights))
print("trainable weights:", len(mlp.trainable_weights))
weights: 6
trainable weights: 6

Метод add_loss()

При написании метода call() слоя вы можете создать тензоры потерь, которые захотите использовать позже, при написании цикла обучения. Это можно сделать, вызвав self.add_loss(value) :

# A layer that creates an activity regularization loss
class ActivityRegularizationLayer(keras.layers.Layer):
    def __init__(self, rate=1e-2):
        super(ActivityRegularizationLayer, self).__init__()
        self.rate = rate

    def call(self, inputs):
        self.add_loss(self.rate * tf.reduce_sum(inputs))
        return inputs

Эти потери (включая потери, создаваемые любым внутренним слоем) могут быть восстановлены через layer.losses . Это свойство сбрасывается в начале каждого __call__() на уровень верхнего уровня, так что layer.losses всегда содержит значения потерь, созданные во время последнего прямого прохода.

class OuterLayer(keras.layers.Layer):
    def __init__(self):
        super(OuterLayer, self).__init__()
        self.activity_reg = ActivityRegularizationLayer(1e-2)

    def call(self, inputs):
        return self.activity_reg(inputs)


layer = OuterLayer()
assert len(layer.losses) == 0  # No losses yet since the layer has never been called

_ = layer(tf.zeros(1, 1))
assert len(layer.losses) == 1  # We created one loss value

# `layer.losses` gets reset at the start of each __call__
_ = layer(tf.zeros(1, 1))
assert len(layer.losses) == 1  # This is the loss created during the call above

Кроме того, свойство loss также содержит потери регуляризации, созданные для весов любого внутреннего слоя:

class OuterLayerWithKernelRegularizer(keras.layers.Layer):
    def __init__(self):
        super(OuterLayerWithKernelRegularizer, self).__init__()
        self.dense = keras.layers.Dense(
            32, kernel_regularizer=tf.keras.regularizers.l2(1e-3)
        )

    def call(self, inputs):
        return self.dense(inputs)


layer = OuterLayerWithKernelRegularizer()
_ = layer(tf.zeros((1, 1)))

# This is `1e-3 * sum(layer.dense.kernel ** 2)`,
# created by the `kernel_regularizer` above.
print(layer.losses)
[<tf.Tensor: shape=(), dtype=float32, numpy=0.001774033>]

Эти потери следует учитывать при написании циклов обучения, например:

# Instantiate an optimizer.
optimizer = tf.keras.optimizers.SGD(learning_rate=1e-3)
loss_fn = keras.losses.SparseCategoricalCrossentropy(from_logits=True)

# Iterate over the batches of a dataset.
for x_batch_train, y_batch_train in train_dataset:
  with tf.GradientTape() as tape:
    logits = layer(x_batch_train)  # Logits for this minibatch
    # Loss value for this minibatch
    loss_value = loss_fn(y_batch_train, logits)
    # Add extra losses created during this forward pass:
    loss_value += sum(model.losses)

  grads = tape.gradient(loss_value, model.trainable_weights)
  optimizer.apply_gradients(zip(grads, model.trainable_weights))

Подробное руководство по написанию циклов обучения см. В руководстве по написанию цикла обучения с нуля .

Эти потери также работают без проблем с fit() (они автоматически суммируются и добавляются к основным потерям, если они есть):

import numpy as np

inputs = keras.Input(shape=(3,))
outputs = ActivityRegularizationLayer()(inputs)
model = keras.Model(inputs, outputs)

# If there is a loss passed in `compile`, the regularization
# losses get added to it
model.compile(optimizer="adam", loss="mse")
model.fit(np.random.random((2, 3)), np.random.random((2, 3)))

# It's also possible not to pass any loss in `compile`,
# since the model already has a loss to minimize, via the `add_loss`
# call during the forward pass!
model.compile(optimizer="adam")
model.fit(np.random.random((2, 3)), np.random.random((2, 3)))
1/1 [==============================] - 0s 111ms/step - loss: 0.3057
1/1 [==============================] - 0s 44ms/step - loss: 0.0246
<tensorflow.python.keras.callbacks.History at 0x7f557862c4e0>

Метод add_metric()

Подобно add_loss() , слои также имеют метод add_metric() для отслеживания скользящего среднего количества во время обучения.

Рассмотрим следующий уровень: уровень «логистической конечной точки». Он принимает в качестве входных данных прогнозы и цели, вычисляет потери, которые отслеживает с помощью add_loss() , и вычисляет скаляр точности, который отслеживает с помощью add_metric() .

class LogisticEndpoint(keras.layers.Layer):
    def __init__(self, name=None):
        super(LogisticEndpoint, self).__init__(name=name)
        self.loss_fn = keras.losses.BinaryCrossentropy(from_logits=True)
        self.accuracy_fn = keras.metrics.BinaryAccuracy()

    def call(self, targets, logits, sample_weights=None):
        # Compute the training-time loss value and add it
        # to the layer using `self.add_loss()`.
        loss = self.loss_fn(targets, logits, sample_weights)
        self.add_loss(loss)

        # Log accuracy as a metric and add it
        # to the layer using `self.add_metric()`.
        acc = self.accuracy_fn(targets, logits, sample_weights)
        self.add_metric(acc, name="accuracy")

        # Return the inference-time prediction tensor (for `.predict()`).
        return tf.nn.softmax(logits)

Отслеживаемые таким образом показатели доступны через layer.metrics :

layer = LogisticEndpoint()

targets = tf.ones((2, 2))
logits = tf.ones((2, 2))
y = layer(targets, logits)

print("layer.metrics:", layer.metrics)
print("current accuracy value:", float(layer.metrics[0].result()))
layer.metrics: [<tensorflow.python.keras.metrics.BinaryAccuracy object at 0x7f5578831518>]
current accuracy value: 1.0

Как и в случае с add_loss() , эти показатели отслеживаются add_loss() fit() :

inputs = keras.Input(shape=(3,), name="inputs")
targets = keras.Input(shape=(10,), name="targets")
logits = keras.layers.Dense(10)(inputs)
predictions = LogisticEndpoint(name="predictions")(logits, targets)

model = keras.Model(inputs=[inputs, targets], outputs=predictions)
model.compile(optimizer="adam")

data = {
    "inputs": np.random.random((3, 3)),
    "targets": np.random.random((3, 10)),
}
model.fit(data)
1/1 [==============================] - 0s 248ms/step - loss: 0.8016 - binary_accuracy: 0.0000e+00
<tensorflow.python.keras.callbacks.History at 0x7f557860d470>

При желании вы можете включить сериализацию на своих слоях

Если вам нужно, чтобы ваши пользовательские слои были сериализуемыми как часть функциональной модели , вы можете при желании реализовать метод get_config() :

class Linear(keras.layers.Layer):
    def __init__(self, units=32):
        super(Linear, self).__init__()
        self.units = units

    def build(self, input_shape):
        self.w = self.add_weight(
            shape=(input_shape[-1], self.units),
            initializer="random_normal",
            trainable=True,
        )
        self.b = self.add_weight(
            shape=(self.units,), initializer="random_normal", trainable=True
        )

    def call(self, inputs):
        return tf.matmul(inputs, self.w) + self.b

    def get_config(self):
        return {"units": self.units}


# Now you can recreate the layer from its config:
layer = Linear(64)
config = layer.get_config()
print(config)
new_layer = Linear.from_config(config)
{'units': 64}

Обратите внимание, что метод __init__() базового класса Layer принимает некоторые аргументы ключевого слова, в частности name и dtype . Хорошая практика - передать эти аргументы родительскому классу в __init__() и включить их в конфигурацию слоя:

class Linear(keras.layers.Layer):
    def __init__(self, units=32, **kwargs):
        super(Linear, self).__init__(**kwargs)
        self.units = units

    def build(self, input_shape):
        self.w = self.add_weight(
            shape=(input_shape[-1], self.units),
            initializer="random_normal",
            trainable=True,
        )
        self.b = self.add_weight(
            shape=(self.units,), initializer="random_normal", trainable=True
        )

    def call(self, inputs):
        return tf.matmul(inputs, self.w) + self.b

    def get_config(self):
        config = super(Linear, self).get_config()
        config.update({"units": self.units})
        return config


layer = Linear(64)
config = layer.get_config()
print(config)
new_layer = Linear.from_config(config)
{'name': 'linear_8', 'trainable': True, 'dtype': 'float32', 'units': 64}

Если вам нужна большая гибкость при десериализации слоя из его конфигурации, вы также можете переопределить метод класса from_config() . Это базовая реализация from_config() :

def from_config(cls, config):
  return cls(**config)

Чтобы узнать больше о сериализации и сохранении, см. Полное руководство по сохранению и сериализации моделей .

Привилегированный аргумент training в методе call()

Некоторые слои, в частности слой BatchNormalization слой Dropout , ведут себя по-разному во время обучения и вывода. Для таких слоев стандартной практикой является предоставление training (логического) аргумента в методе call() .

Выставляя этот аргумент в call() , вы активируете встроенные циклы обучения и оценки (например, fit() ) для правильного использования слоя при обучении и выводе.

class CustomDropout(keras.layers.Layer):
    def __init__(self, rate, **kwargs):
        super(CustomDropout, self).__init__(**kwargs)
        self.rate = rate

    def call(self, inputs, training=None):
        if training:
            return tf.nn.dropout(inputs, rate=self.rate)
        return inputs

Аргумент привилегированной mask в методе call()

Другой привилегированный аргумент, поддерживаемый call() - это аргумент mask .

Вы найдете его во всех слоях Keras RNN. Маска - это логический тензор (одно логическое значение на временной шаг на входе), используемый для пропуска определенных временных шагов ввода при обработке данных временного ряда.

Keras автоматически передает правильный аргумент mask __call__() для слоев, которые его поддерживают, когда маска создается предыдущим слоем. Маска генерирующие слои являются Embedding уровня , выполненный с mask_zero=True , и Masking слоя.

Чтобы узнать больше о маскировании и о том, как писать слои с поддержкой маскирования, ознакомьтесь с руководством «Общие сведения о заполнении и маскировании» .

Класс Model

В общем, вы будете использовать класс Layer для определения внутренних вычислительных блоков и будете использовать класс Model для определения внешней модели - объекта, который вы будете обучать.

Например, в модели ResNet50 у вас будет несколько блоков ResNet, создающих подкласс Layer , и одна Model охватывающая всю сеть ResNet50.

Класс Model имеет тот же API, что и Layer , со следующими отличиями:

  • Он предоставляет встроенные циклы обучения, оценки и прогнозирования ( model.fit() , model.evaluate() , model.predict() ).
  • Он предоставляет список своих внутренних слоев через свойство model.layers .
  • Он предоставляет API сохранения и сериализации ( save() , save_weights() ...)

Фактически, класс Layer соответствует тому, что мы называем в литературе «слоем» (как «сверточный слой» или «повторяющийся слой») или как «блок» (как «блок ResNet» или «начальный блок»). ).

Между тем, класс Model соответствует тому, что в литературе называется «моделью» (как «модель глубокого обучения») или «сетью» (как «глубокая нейронная сеть»).

Итак, если вы задаетесь вопросом: «Следует ли мне использовать класс Layer или класс Model ?», Спросите себя: нужно ли мне вызывать для него fit() ? Мне нужно будет вызвать для этого функцию save() ? Если да, выбирайте Model . Если нет (либо потому, что ваш класс - это просто блок в более крупной системе, либо потому, что вы сами пишете обучающий и сохраняете код), используйте Layer .

Например, мы могли бы взять наш пример мини-реснета, приведенный выше, и использовать его для создания Model которую мы могли бы обучать с помощью fit() и которую мы могли бы сохранить с помощью save_weights() :

class ResNet(tf.keras.Model):

    def __init__(self, num_classes=1000):
        super(ResNet, self).__init__()
        self.block_1 = ResNetBlock()
        self.block_2 = ResNetBlock()
        self.global_pool = layers.GlobalAveragePooling2D()
        self.classifier = Dense(num_classes)

    def call(self, inputs):
        x = self.block_1(inputs)
        x = self.block_2(x)
        x = self.global_pool(x)
        return self.classifier(x)


resnet = ResNet()
dataset = ...
resnet.fit(dataset, epochs=10)
resnet.save(filepath)

Собираем все вместе: комплексный пример

Вот что вы узнали:

  • Layer инкапсулирует состояние (созданное в __init__() или build() ) и некоторые вычисления (определенные в call() ).
  • Слои могут рекурсивно вкладываться для создания новых вычислительных блоков большего размера.
  • Слои могут создавать и отслеживать потери (обычно потери регуляризации), а также метрики с помощью add_loss() и add_metric()
  • Внешний контейнер, то, что вы хотите тренировать, - это Model . Model похожа на Layer , но с добавленными утилитами обучения и сериализации.

Давайте объединим все это в сквозной пример: мы собираемся реализовать вариационный автоэнкодер (VAE). Обучим его цифрам MNIST.

Наш VAE будет подклассом Model , построенным как вложенная композиция слоев, являющихся подклассом Layer . Он будет характеризоваться потерей регуляризации (дивергенция KL).

from tensorflow.keras import layers


class Sampling(layers.Layer):
    """Uses (z_mean, z_log_var) to sample z, the vector encoding a digit."""

    def call(self, inputs):
        z_mean, z_log_var = inputs
        batch = tf.shape(z_mean)[0]
        dim = tf.shape(z_mean)[1]
        epsilon = tf.keras.backend.random_normal(shape=(batch, dim))
        return z_mean + tf.exp(0.5 * z_log_var) * epsilon


class Encoder(layers.Layer):
    """Maps MNIST digits to a triplet (z_mean, z_log_var, z)."""

    def __init__(self, latent_dim=32, intermediate_dim=64, name="encoder", **kwargs):
        super(Encoder, self).__init__(name=name, **kwargs)
        self.dense_proj = layers.Dense(intermediate_dim, activation="relu")
        self.dense_mean = layers.Dense(latent_dim)
        self.dense_log_var = layers.Dense(latent_dim)
        self.sampling = Sampling()

    def call(self, inputs):
        x = self.dense_proj(inputs)
        z_mean = self.dense_mean(x)
        z_log_var = self.dense_log_var(x)
        z = self.sampling((z_mean, z_log_var))
        return z_mean, z_log_var, z


class Decoder(layers.Layer):
    """Converts z, the encoded digit vector, back into a readable digit."""

    def __init__(self, original_dim, intermediate_dim=64, name="decoder", **kwargs):
        super(Decoder, self).__init__(name=name, **kwargs)
        self.dense_proj = layers.Dense(intermediate_dim, activation="relu")
        self.dense_output = layers.Dense(original_dim, activation="sigmoid")

    def call(self, inputs):
        x = self.dense_proj(inputs)
        return self.dense_output(x)


class VariationalAutoEncoder(keras.Model):
    """Combines the encoder and decoder into an end-to-end model for training."""

    def __init__(
        self,
        original_dim,
        intermediate_dim=64,
        latent_dim=32,
        name="autoencoder",
        **kwargs
    ):
        super(VariationalAutoEncoder, self).__init__(name=name, **kwargs)
        self.original_dim = original_dim
        self.encoder = Encoder(latent_dim=latent_dim, intermediate_dim=intermediate_dim)
        self.decoder = Decoder(original_dim, intermediate_dim=intermediate_dim)

    def call(self, inputs):
        z_mean, z_log_var, z = self.encoder(inputs)
        reconstructed = self.decoder(z)
        # Add KL divergence regularization loss.
        kl_loss = -0.5 * tf.reduce_mean(
            z_log_var - tf.square(z_mean) - tf.exp(z_log_var) + 1
        )
        self.add_loss(kl_loss)
        return reconstructed

Напишем простой обучающий цикл на MNIST:

original_dim = 784
vae = VariationalAutoEncoder(original_dim, 64, 32)

optimizer = tf.keras.optimizers.Adam(learning_rate=1e-3)
mse_loss_fn = tf.keras.losses.MeanSquaredError()

loss_metric = tf.keras.metrics.Mean()

(x_train, _), _ = tf.keras.datasets.mnist.load_data()
x_train = x_train.reshape(60000, 784).astype("float32") / 255

train_dataset = tf.data.Dataset.from_tensor_slices(x_train)
train_dataset = train_dataset.shuffle(buffer_size=1024).batch(64)

epochs = 2

# Iterate over epochs.
for epoch in range(epochs):
    print("Start of epoch %d" % (epoch,))

    # Iterate over the batches of the dataset.
    for step, x_batch_train in enumerate(train_dataset):
        with tf.GradientTape() as tape:
            reconstructed = vae(x_batch_train)
            # Compute reconstruction loss
            loss = mse_loss_fn(x_batch_train, reconstructed)
            loss += sum(vae.losses)  # Add KLD regularization loss

        grads = tape.gradient(loss, vae.trainable_weights)
        optimizer.apply_gradients(zip(grads, vae.trainable_weights))

        loss_metric(loss)

        if step % 100 == 0:
            print("step %d: mean loss = %.4f" % (step, loss_metric.result()))
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/mnist.npz
11493376/11490434 [==============================] - 0s 0us/step
Start of epoch 0
step 0: mean loss = 0.3603
step 100: mean loss = 0.1262
step 200: mean loss = 0.0997
step 300: mean loss = 0.0895
step 400: mean loss = 0.0845
step 500: mean loss = 0.0810
step 600: mean loss = 0.0789
step 700: mean loss = 0.0773
step 800: mean loss = 0.0761
step 900: mean loss = 0.0750
Start of epoch 1
step 0: mean loss = 0.0748
step 100: mean loss = 0.0741
step 200: mean loss = 0.0736
step 300: mean loss = 0.0731
step 400: mean loss = 0.0728
step 500: mean loss = 0.0724
step 600: mean loss = 0.0721
step 700: mean loss = 0.0718
step 800: mean loss = 0.0715
step 900: mean loss = 0.0713

Обратите внимание, что, поскольку VAE является подклассом Model , он имеет встроенные циклы обучения. Так что вы могли бы обучить его так:

vae = VariationalAutoEncoder(784, 64, 32)

optimizer = tf.keras.optimizers.Adam(learning_rate=1e-3)

vae.compile(optimizer, loss=tf.keras.losses.MeanSquaredError())
vae.fit(x_train, x_train, epochs=2, batch_size=64)
Epoch 1/2
938/938 [==============================] - 3s 2ms/step - loss: 0.0945
Epoch 2/2
938/938 [==============================] - 2s 2ms/step - loss: 0.0678
<tensorflow.python.keras.callbacks.History at 0x7f54dc15f550>

Помимо объектно-ориентированной разработки: функциональный API

Этот пример для вас слишком много объектно-ориентированной разработки? Вы также можете создавать модели с помощью функционального API . Важно отметить, что выбор того или иного стиля не мешает вам использовать компоненты, написанные в другом стиле: вы всегда можете смешивать и сочетать.

Например, в приведенном ниже примере функционального API повторно используется тот же уровень Sampling мы определили в приведенном выше примере:

original_dim = 784
intermediate_dim = 64
latent_dim = 32

# Define encoder model.
original_inputs = tf.keras.Input(shape=(original_dim,), name="encoder_input")
x = layers.Dense(intermediate_dim, activation="relu")(original_inputs)
z_mean = layers.Dense(latent_dim, name="z_mean")(x)
z_log_var = layers.Dense(latent_dim, name="z_log_var")(x)
z = Sampling()((z_mean, z_log_var))
encoder = tf.keras.Model(inputs=original_inputs, outputs=z, name="encoder")

# Define decoder model.
latent_inputs = tf.keras.Input(shape=(latent_dim,), name="z_sampling")
x = layers.Dense(intermediate_dim, activation="relu")(latent_inputs)
outputs = layers.Dense(original_dim, activation="sigmoid")(x)
decoder = tf.keras.Model(inputs=latent_inputs, outputs=outputs, name="decoder")

# Define VAE model.
outputs = decoder(z)
vae = tf.keras.Model(inputs=original_inputs, outputs=outputs, name="vae")

# Add KL divergence regularization loss.
kl_loss = -0.5 * tf.reduce_mean(z_log_var - tf.square(z_mean) - tf.exp(z_log_var) + 1)
vae.add_loss(kl_loss)

# Train.
optimizer = tf.keras.optimizers.Adam(learning_rate=1e-3)
vae.compile(optimizer, loss=tf.keras.losses.MeanSquaredError())
vae.fit(x_train, x_train, epochs=3, batch_size=64)
Epoch 1/3
938/938 [==============================] - 3s 2ms/step - loss: 0.0950
Epoch 2/3
938/938 [==============================] - 2s 2ms/step - loss: 0.0677
Epoch 3/3
938/938 [==============================] - 2s 2ms/step - loss: 0.0676
<tensorflow.python.keras.callbacks.History at 0x7f54d00b9630>

Для получения дополнительной информации обязательно прочтите руководство по функциональному API .