Сохраните дату! Google I / O возвращается 18-20 мая Зарегистрируйтесь сейчас
Эта страница переведена с помощью Cloud Translation API.
Switch to English

Классифицируйте цветы с помощью трансферного обучения

Посмотреть на TensorFlow.org Запускаем в Google Colab Посмотреть на GitHub Скачать блокнот См. Модель TF Hub

Вы когда-нибудь видели красивый цветок и задавались вопросом, что это за цветок? Что ж, вы не первый, так что давайте построим способ определения типа цветка по фотографии!

Для классификации изображений особый тип глубокой нейронной сети , называемый сверточной нейронной сетью , оказался особенно мощным. Однако современные сверточные нейронные сети имеют миллионы параметров. Для их обучения с нуля требуется много размеченных обучающих данных и большая вычислительная мощность (сотни GPU-часов и более). У нас всего около трех тысяч помеченных фотографий, и мы хотим тратить на это гораздо меньше времени, поэтому нам нужно быть более умными.

Мы будем использовать технику, называемую трансферным обучением, где мы берем предварительно обученную сеть (обученную примерно на миллионе общих изображений), используем ее для извлечения функций и обучаем новый слой поверх нашей собственной задачи классификации изображений цветов.

Настраивать

import collections
import io
import math
import os
import random
from six.moves import urllib

from IPython.display import clear_output, Image, display, HTML

import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()

import tensorflow_hub as hub

import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import sklearn.metrics as sk_metrics
import time
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.6/site-packages/tensorflow/python/compat/v2_compat.py:96: disable_resource_variables (from tensorflow.python.ops.variable_scope) is deprecated and will be removed in a future version.
Instructions for updating:
non-resource variables are not supported in the long term

Набор данных цветов

Набор данных цветов состоит из изображений цветов с 5 возможными метками классов.

При обучении модели машинного обучения мы разделяем наши данные на обучающие и тестовые наборы данных. Мы обучим модель на наших обучающих данных, а затем оценим, насколько хорошо модель работает с данными, которые она никогда не видела - набором тестов.

Давайте загрузим наши обучающие и тестовые примеры (это может занять некоторое время) и разделим их на обучающие и тестовые наборы.

Запустите следующие две ячейки:

FLOWERS_DIR = './flower_photos'
TRAIN_FRACTION = 0.8
RANDOM_SEED = 2018


def download_images():
  """If the images aren't already downloaded, save them to FLOWERS_DIR."""
  if not os.path.exists(FLOWERS_DIR):
    DOWNLOAD_URL = 'http://download.tensorflow.org/example_images/flower_photos.tgz'
    print('Downloading flower images from %s...' % DOWNLOAD_URL)
    urllib.request.urlretrieve(DOWNLOAD_URL, 'flower_photos.tgz')
    !tar xfz flower_photos.tgz
  print('Flower photos are located in %s' % FLOWERS_DIR)


def make_train_and_test_sets():
  """Split the data into train and test sets and get the label classes."""
  train_examples, test_examples = [], []
  shuffler = random.Random(RANDOM_SEED)
  is_root = True
  for (dirname, subdirs, filenames) in tf.gfile.Walk(FLOWERS_DIR):
    # The root directory gives us the classes
    if is_root:
      subdirs = sorted(subdirs)
      classes = collections.OrderedDict(enumerate(subdirs))
      label_to_class = dict([(x, i) for i, x in enumerate(subdirs)])
      is_root = False
    # The sub directories give us the image files for training.
    else:
      filenames.sort()
      shuffler.shuffle(filenames)
      full_filenames = [os.path.join(dirname, f) for f in filenames]
      label = dirname.split('/')[-1]
      label_class = label_to_class[label]
      # An example is the image file and it's label class.
      examples = list(zip(full_filenames, [label_class] * len(filenames)))
      num_train = int(len(filenames) * TRAIN_FRACTION)
      train_examples.extend(examples[:num_train])
      test_examples.extend(examples[num_train:])

  shuffler.shuffle(train_examples)
  shuffler.shuffle(test_examples)
  return train_examples, test_examples, classes
# Download the images and split the images into train and test sets.
download_images()
TRAIN_EXAMPLES, TEST_EXAMPLES, CLASSES = make_train_and_test_sets()
NUM_CLASSES = len(CLASSES)

print('\nThe dataset has %d label classes: %s' % (NUM_CLASSES, CLASSES.values()))
print('There are %d training images' % len(TRAIN_EXAMPLES))
print('there are %d test images' % len(TEST_EXAMPLES))
Downloading flower images from http://download.tensorflow.org/example_images/flower_photos.tgz...
Flower photos are located in ./flower_photos

The dataset has 5 label classes: odict_values(['daisy', 'dandelion', 'roses', 'sunflowers', 'tulips'])
There are 2934 training images
there are 736 test images

Изучите данные

Набор данных цветов состоит из примеров, которые помечены изображениями цветов. Каждый пример содержит изображение цветка в формате JPEG и метку класса: какой это тип цветка. Выведем несколько изображений вместе с их ярлыками.

Показать несколько изображений с пометками

def get_label(example):
  """Get the label (number) for given example."""
  return example[1]

def get_class(example):
  """Get the class (string) of given example."""
  return CLASSES[get_label(example)]

def get_encoded_image(example):
  """Get the image data (encoded jpg) of given example."""
  image_path = example[0]
  return tf.gfile.GFile(image_path, 'rb').read()

def get_image(example):
  """Get image as np.array of pixels for given example."""
  return plt.imread(io.BytesIO(get_encoded_image(example)), format='jpg')

def display_images(images_and_classes, cols=5):
  """Display given images and their labels in a grid."""
  rows = int(math.ceil(len(images_and_classes) / cols))
  fig = plt.figure()
  fig.set_size_inches(cols * 3, rows * 3)
  for i, (image, flower_class) in enumerate(images_and_classes):
    plt.subplot(rows, cols, i + 1)
    plt.axis('off')
    plt.imshow(image)
    plt.title(flower_class)

NUM_IMAGES = 15
display_images([(get_image(example), get_class(example))
               for example in TRAIN_EXAMPLES[:NUM_IMAGES]])

PNG

Построить модель

Мы загрузим модуль вектора функций изображения TF-Hub , наложим на него линейный классификатор и добавим операции по обучению и оценке. Следующая ячейка строит граф TF, описывающий модель и ее обучение, но не запускает обучение (это будет следующим шагом).

LEARNING_RATE = 0.01

tf.reset_default_graph()

# Load a pre-trained TF-Hub module for extracting features from images. We've
# chosen this particular module for speed, but many other choices are available.
image_module = hub.Module('https://tfhub.dev/google/imagenet/mobilenet_v2_035_128/feature_vector/2')

# Preprocessing images into tensors with size expected by the image module.
encoded_images = tf.placeholder(tf.string, shape=[None])
image_size = hub.get_expected_image_size(image_module)


def decode_and_resize_image(encoded):
  decoded = tf.image.decode_jpeg(encoded, channels=3)
  decoded = tf.image.convert_image_dtype(decoded, tf.float32)
  return tf.image.resize_images(decoded, image_size)


batch_images = tf.map_fn(decode_and_resize_image, encoded_images, dtype=tf.float32)

# The image module can be applied as a function to extract feature vectors for a
# batch of images.
features = image_module(batch_images)


def create_model(features):
  """Build a model for classification from extracted features."""
  # Currently, the model is just a single linear layer. You can try to add
  # another layer, but be careful... two linear layers (when activation=None)
  # are equivalent to a single linear layer. You can create a nonlinear layer
  # like this:
  # layer = tf.layers.dense(inputs=..., units=..., activation=tf.nn.relu)
  layer = tf.layers.dense(inputs=features, units=NUM_CLASSES, activation=None)
  return layer


# For each class (kind of flower), the model outputs some real number as a score
# how much the input resembles this class. This vector of numbers is often
# called the "logits".
logits = create_model(features)
labels = tf.placeholder(tf.float32, [None, NUM_CLASSES])

# Mathematically, a good way to measure how much the predicted probabilities
# diverge from the truth is the "cross-entropy" between the two probability
# distributions. For numerical stability, this is best done directly from the
# logits, not the probabilities extracted from them.
cross_entropy = tf.nn.softmax_cross_entropy_with_logits_v2(logits=logits, labels=labels)
cross_entropy_mean = tf.reduce_mean(cross_entropy)

# Let's add an optimizer so we can train the network.
optimizer = tf.train.GradientDescentOptimizer(learning_rate=LEARNING_RATE)
train_op = optimizer.minimize(loss=cross_entropy_mean)

# The "softmax" function transforms the logits vector into a vector of
# probabilities: non-negative numbers that sum up to one, and the i-th number
# says how likely the input comes from class i.
probabilities = tf.nn.softmax(logits)

# We choose the highest one as the predicted class.
prediction = tf.argmax(probabilities, 1)
correct_prediction = tf.equal(prediction, tf.argmax(labels, 1))

# The accuracy will allow us to eval on our test set. 
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
WARNING:tensorflow:From <ipython-input-1-76baecbc8e0d>:20: calling map_fn (from tensorflow.python.ops.map_fn) with dtype is deprecated and will be removed in a future version.
Instructions for updating:
Use fn_output_signature instead
WARNING:tensorflow:From <ipython-input-1-76baecbc8e0d>:20: calling map_fn (from tensorflow.python.ops.map_fn) with dtype is deprecated and will be removed in a future version.
Instructions for updating:
Use fn_output_signature instead
INFO:tensorflow:Saver not created because there are no variables in the graph to restore
INFO:tensorflow:Saver not created because there are no variables in the graph to restore
/tmpfs/src/tf_docs_env/lib/python3.6/site-packages/tensorflow/python/keras/legacy_tf_layers/core.py:171: UserWarning: `tf.layers.dense` is deprecated and will be removed in a future version. Please use `tf.keras.layers.Dense` instead.
  warnings.warn('`tf.layers.dense` is deprecated and '
/tmpfs/src/tf_docs_env/lib/python3.6/site-packages/tensorflow/python/keras/engine/base_layer_v1.py:1719: UserWarning: `layer.apply` is deprecated and will be removed in a future version. Please use `layer.__call__` method instead.
  warnings.warn('`layer.apply` is deprecated and '

Обучите сеть

Теперь, когда наша модель построена, давайте обучим ее и посмотрим, как она работает на нашем тестовом наборе.

# How long will we train the network (number of batches).
NUM_TRAIN_STEPS = 100
# How many training examples we use in each step.
TRAIN_BATCH_SIZE = 10
# How often to evaluate the model performance.
EVAL_EVERY = 10

def get_batch(batch_size=None, test=False):
  """Get a random batch of examples."""
  examples = TEST_EXAMPLES if test else TRAIN_EXAMPLES
  batch_examples = random.sample(examples, batch_size) if batch_size else examples
  return batch_examples

def get_images_and_labels(batch_examples):
  images = [get_encoded_image(e) for e in batch_examples]
  one_hot_labels = [get_label_one_hot(e) for e in batch_examples]
  return images, one_hot_labels

def get_label_one_hot(example):
  """Get the one hot encoding vector for the example."""
  one_hot_vector = np.zeros(NUM_CLASSES)
  np.put(one_hot_vector, get_label(example), 1)
  return one_hot_vector

with tf.Session() as sess:
  sess.run(tf.global_variables_initializer())
  for i in range(NUM_TRAIN_STEPS):
    # Get a random batch of training examples.
    train_batch = get_batch(batch_size=TRAIN_BATCH_SIZE)
    batch_images, batch_labels = get_images_and_labels(train_batch)
    # Run the train_op to train the model.
    train_loss, _, train_accuracy = sess.run(
        [cross_entropy_mean, train_op, accuracy],
        feed_dict={encoded_images: batch_images, labels: batch_labels})
    is_final_step = (i == (NUM_TRAIN_STEPS - 1))
    if i % EVAL_EVERY == 0 or is_final_step:
      # Get a batch of test examples.
      test_batch = get_batch(batch_size=None, test=True)
      batch_images, batch_labels = get_images_and_labels(test_batch)
      # Evaluate how well our model performs on the test set.
      test_loss, test_accuracy, test_prediction, correct_predicate = sess.run(
        [cross_entropy_mean, accuracy, prediction, correct_prediction],
        feed_dict={encoded_images: batch_images, labels: batch_labels})
      print('Test accuracy at step %s: %.2f%%' % (i, (test_accuracy * 100)))
Test accuracy at step 0: 31.79%
Test accuracy at step 10: 55.57%
Test accuracy at step 20: 67.26%
Test accuracy at step 30: 74.86%
Test accuracy at step 40: 76.49%
Test accuracy at step 50: 77.72%
Test accuracy at step 60: 78.67%
Test accuracy at step 70: 79.89%
Test accuracy at step 80: 79.76%
Test accuracy at step 90: 77.04%
Test accuracy at step 99: 81.93%
def show_confusion_matrix(test_labels, predictions):
  """Compute confusion matrix and normalize."""
  confusion = sk_metrics.confusion_matrix(
    np.argmax(test_labels, axis=1), predictions)
  confusion_normalized = confusion.astype("float") / confusion.sum(axis=1)
  axis_labels = list(CLASSES.values())
  ax = sns.heatmap(
      confusion_normalized, xticklabels=axis_labels, yticklabels=axis_labels,
      cmap='Blues', annot=True, fmt='.2f', square=True)
  plt.title("Confusion matrix")
  plt.ylabel("True label")
  plt.xlabel("Predicted label")

show_confusion_matrix(batch_labels, test_prediction)

PNG

Неверные прогнозы

Давайте более подробно рассмотрим тестовые примеры, в которых наша модель ошиблась.

  • Есть ли в нашем наборе тестов примеры с неправильной маркировкой?
  • Есть ли в тестовом наборе плохие данные - изображения, которые на самом деле не являются изображениями цветов?
  • Есть ли изображения, на которых можно понять, почему модель ошиблась?
incorrect = [
    (example, CLASSES[prediction])
    for example, prediction, is_correct in zip(test_batch, test_prediction, correct_predicate)
    if not is_correct
]
display_images(
  [(get_image(example), "prediction: {0}\nlabel:{1}".format(incorrect_prediction, get_class(example)))
   for (example, incorrect_prediction) in incorrect[:20]])

PNG

Упражнения: Улучшайте модель!

Мы обучили базовую модель, теперь давайте попробуем улучшить ее, чтобы добиться большей точности. (Помните, что вам нужно будет повторно запустить ячейки, когда вы внесете изменения.)

Упражнение 1. Попробуйте другую модель изображения.

С TF-Hub просто попробовать несколько разных моделей изображений. Просто замените дескриптор "https://tfhub.dev/google/imagenet/mobilenet_v2_050_128/feature_vector/2" в hub.Module() дескриптором другого кода и повторно запустите его. Вы можете увидеть все доступные модули изображений по адресу tfhub.dev .

Хорошим выбором может быть один из других модулей MobileNet V2 . Многие модули, включая модули MobileNet, были обучены на наборе данных ImageNet, который содержит более 1 миллиона изображений и 1000 классов. Выбор сетевой архитектуры обеспечивает компромисс между скоростью и точностью классификации: такие модели, как MobileNet или NASNet Mobile, быстрые и компактные, более традиционные архитектуры, такие как Inception и ResNet, были разработаны для обеспечения точности.

Для более крупной архитектуры Inception V3 вы также можете изучить преимущества предварительного обучения в области, более близкой к вашей собственной задаче: он также доступен в виде модуля, обученного на наборе данных iNaturalist о растениях и животных.

Упражнение 2: Добавьте скрытый слой.

Поместите скрытый слой между извлеченными функциями изображения и линейным классификатором (в функции create_model() выше). Чтобы создать нелинейный скрытый слой, например, с 100 узлами, используйте tf.layers.dense с единицами измерения 100 и активацией tf.nn.relu . Влияет ли изменение размера скрытого слоя на точность теста? Повышает ли точность добавление второго скрытого слоя?

Упражнение 3. Измените гиперпараметры.

Повышает ли увеличение количества тренировочных шагов конечную точность? Можете ли вы изменить скорость обучения, чтобы ваша модель сходилась быстрее? Влияет ли размер обучающего пакета на производительность вашей модели?

Упражнение 4. Попробуйте другой оптимизатор.

Замените базовый GradientDescentOptimizer более сложным оптимизатором, например AdagradOptimizer . Имеет ли значение для вашего модельного обучения? Если вы хотите узнать больше о преимуществах различных алгоритмов оптимизации, прочтите этот пост .

Хотите узнать больше?

Если вы заинтересованы в более продвинутой версии этого руководства, проверьте TensorFlow изображения переподготовки учебника , который проведет вас через визуализацию обучения с использованием TensorBoard, передовые технологий , как набор данных увеличения путем искажения изображения, и заменяя цветы DataSet , чтобы узнать об классификатором изображениях на ваш собственный набор данных.

Вы можете узнать больше о TensorFlow на tenorflow.org и увидеть документацию по API TF-Hub, доступную на tensorflow.org/hub . Найдите доступные модули TensorFlow Hub по адресу tfhub.dev, включая дополнительные модули векторных функций изображений и модули встраивания текста.

Также ознакомьтесь с ускоренным курсом по машинному обучению, который представляет собой быстрое практическое введение Google в машинное обучение.