Присоединяйтесь к нам на DevFest for Ukraine 14-15 июня Онлайн Зарегистрироваться сейчас

Проверка модели анализа тензорного потока

Обзор

TFMA поддерживает проверку модели путем установки значений порогов и изменения пороговых значений , основанные на поддерживаемых метриках .

Конфигурация

GenericValueThreshold

Пороговое значение полезно для стробирования модели-кандидата путем проверки того, больше ли соответствующая метрика нижней границы и / или меньше верхней границы. Пользователь может установить одно или оба значения lower_bound и upper_bound. Для параметра lower_bound по умолчанию задана отрицательная бесконечность, если он не задан, а для параметра upper_bound по умолчанию задано значение бесконечности, если он не задан.

import tensorflow_model_analysis as tfma

lower_bound = tfma.GenericValueThreshold(lower_bound={'value':0})
upper_bound = tfma.GenericValueThreshold(upper_bound={'value':1})
lower_upper_bound = tfma.GenericValueThreshold(lower_bound={'value':0},
                                               upper_bound={'value':1))

GenericChangeThreshold

Изменение ограничения полезно для выбора модели-кандидата, проверяя, больше / меньше соответствующая метрика, чем у базовой модели. Это изменение можно измерить двумя способами: абсолютное изменение и относительное изменение. Aboslute изменения вычисляются как значение различие между метриками кандидатом и базовой моделью, а именно, v_c - v_b , где v_c обозначает кандидат значение метрики и v_b обозначают базовое значение. Относительная величина относительная разность между метрикой кандидата и базовой линией, а именно, v_c / v_b. Абсолютный и относительный порог могут сосуществовать в модели ворот по обоим критериям. Помимо настройки пороговых значений, пользователю также необходимо настроить MetricDirection. для показателей с более высокими значениями (например, AUC) установите направление на HIGHER_IS_BETTER, для показателей с более низкими значениями (например, потери) установите направление на LOWER_IS_BETTER. Для изменения пороговых значений требуется, чтобы базовая модель оценивалась вместе с моделью-кандидатом. См Руководство по началу работы для примера.

import tensorflow_model_analysis as tfma

absolute_higher_is_better = tfma.GenericChangeThreshold(absolute={'value':1},
                                                        direction=tfma.MetricDirection.HIGHER_IS_BETTER)
absolute_lower_is_better = tfma.GenericChangeThreshold(absolute={'value':1},
                                                       direction=tfma.MetricDirection.LOWER_IS_BETTER)
relative_higher_is_better = tfma.GenericChangeThreshold(relative={'value':1},
                                                        direction=tfma.MetricDirection.HIGHER_IS_BETTER)
relative_lower_is_better = tfma.GenericChangeThreshold(relative={'value':1},
                                                       direction=tfma.MetricDirection.LOWER_IS_BETTER)
absolute_and_relative = tfma.GenericChangeThreshold(relative={'value':1},
                                                    absolute={'value':0.2},
                                                    direction=tfma.MetricDirection.LOWER_IS_BETTER)

Собираем вещи вместе

В следующем примере комбинируются пороги значений и изменений:

import tensorflow_model_analysis as tfma

lower_bound = tfma.GenericValueThreshold(lower_bound={'value':0.7})
relative_higher_is_better =
    tfma.GenericChangeThreshold(relative={'value':1.01},
                                direction=tfma.MetricDirection.HIGHER_IS_BETTER)
auc_threshold = tfma.MetricThreshold(value_threshold=lower_bound,
                                     change_threshold=relative_higher_is_better)

Возможно, было бы удобнее записать конфигурацию в формате proto:

from google.protobuf import text_format

auc_threshold = text_format.Parse("""
  value_threshold { lower_bound { value: 0.6 } }
  change_threshold { relative { value: 1.01 } }
""", tfma.MetricThreshold())

Параметр MetricThreshold может быть настроен для входа в метрики времени обучения модели (либо EvalSavedModel, либо сохраненная модель Keras) и метрики после обучения (определенные в конфигурации TFMA). Для показателей времени обучения пороговые значения указываются в tfma.MetricsSpec:

metrics_spec = tfma.MetricSpec(thresholds={'auc': auc_threshold})

Для метрик после обучения пороги определяются непосредственно в tfma.MetricConfig:

metric_config = tfma.MetricConfig(class_name='TotalWeightedExample',
                                  threshold=lower_bound)

Вот пример вместе с другими настройками в EvalConfig:

# Run in a Jupyter Notebook.
from google.protobuf import text_format

eval_config = text_format.Parse("""
  model_specs {
    # This assumes a serving model with a "serving_default" signature.
    label_key: "label"
    example_weight_key: "weight"
  }
  metrics_spec {
    # Training Time metric thresholds
    thresholds {
      key: "auc"
      value: {
        value_threshold {
          lower_bound { value: 0.7 }
        }
        change_threshold {
          direction: HIGHER_IS_BETTER
          absolute { value: -1e-10 }
        }
      }
    }
    # Post Training metrics and their thesholds.
    metrics {
      # This assumes a binary classification model.
      class_name: "AUC"
      threshold {
        value_threshold {
          lower_bound { value: 0 }
        }
      }
    }
  }
  slicing_specs {}
  slicing_specs {
    feature_keys: ["age"]
  }
""", tfma.EvalConfig())

eval_shared_models = [
  tfma.default_eval_shared_model(
      model_name=tfma.CANDIDATE_KEY,
      eval_saved_model_path='/path/to/saved/candiate/model',
      eval_config=eval_config),
  tfma.default_eval_shared_model(
      model_name=tfma.BASELINE_KEY,
      eval_saved_model_path='/path/to/saved/baseline/model',
      eval_config=eval_config),
]

eval_result = tfma.run_model_analysis(
    eval_shared_models,
    eval_config=eval_config,
    # This assumes your data is a TFRecords file containing records in the
    # tf.train.Example format.
    data_location="/path/to/file/containing/tfrecords",
    output_path="/path/for/output")

tfma.view.render_slicing_metrics(eval_result)
tfma.load_validation_result(output_path)

Вывод

В дополнение к файлу метрик, выводимому оценщиком, когда используется проверка, также выводится дополнительный файл «проверки». Формат полезной нагрузки ValidationResult . Если нет сбоев, в выходных данных для параметра «validation_ok» будет установлено значение «Истина». При возникновении сбоев предоставляется информация о связанных метриках, пороговых значениях и наблюдаемых значениях метрик. Ниже приведен пример, в котором «weighted_examle_count» не соответствует пороговому значению (1,5 не меньше 1,0, следовательно, сбой):

  validation_ok: False
  metric_validations_per_slice {
    failures {
      metric_key {
        name: "weighted_example_count"
        model_name: "candidate"
      }
      metric_threshold {
        value_threshold {
          upper_bound { value: 1.0 }
        }
      }
      metric_value {
        double_value { value: 1.5 }
      }
    }
  }