मूल्यांकनकर्ता टीएफएक्स पाइपलाइन घटक

मूल्यांकनकर्ता टीएफएक्स पाइपलाइन घटक आपके मॉडल के प्रशिक्षण परिणामों पर गहन विश्लेषण करता है, ताकि आपको यह समझने में मदद मिल सके कि आपका मॉडल आपके डेटा के सबसेट पर कैसा प्रदर्शन करता है। मूल्यांकनकर्ता आपके निर्यात किए गए मॉडलों को मान्य करने में भी आपकी मदद करता है, यह सुनिश्चित करते हुए कि वे उत्पादन में धकेलने के लिए "काफ़ी अच्छे" हैं।

जब सत्यापन सक्षम किया जाता है, तो मूल्यांकनकर्ता यह निर्धारित करने के लिए बेसलाइन (जैसे कि वर्तमान में सेवारत मॉडल) के साथ नए मॉडल की तुलना करता है कि क्या वे बेसलाइन के सापेक्ष "काफ़ी अच्छे" हैं। यह एक eval डेटासेट पर दोनों मॉडलों का मूल्यांकन करके और मेट्रिक्स (जैसे AUC, हानि) पर उनके प्रदर्शन की गणना करके ऐसा करता है। यदि नए मॉडल के मेट्रिक्स बेसलाइन मॉडल (उदाहरण के लिए एयूसी कम नहीं है) के सापेक्ष डेवलपर-निर्दिष्ट मानदंडों को पूरा करते हैं, तो मॉडल "धन्य" (अच्छा के रूप में चिह्नित) है, जो पुशर को संकेत देता है कि मॉडल को उत्पादन में धकेलना ठीक है।

मूल्यांकनकर्ता और टेन्सरफ़्लो मॉडल विश्लेषण

मूल्यांकनकर्ता विश्लेषण करने के लिए टेन्सरफ्लो मॉडल विश्लेषण लाइब्रेरी का लाभ उठाता है, जो बदले में स्केलेबल प्रसंस्करण के लिए अपाचे बीम का उपयोग करता है।

मूल्यांकनकर्ता घटक का उपयोग करना

एक मूल्यांकनकर्ता पाइपलाइन घटक को तैनात करना आम तौर पर बहुत आसान होता है और इसके लिए कम अनुकूलन की आवश्यकता होती है, क्योंकि अधिकांश कार्य मूल्यांकनकर्ता टीएफएक्स घटक द्वारा किया जाता है।

मूल्यांकनकर्ता को स्थापित करने के लिए निम्नलिखित जानकारी की आवश्यकता है:

  • कॉन्फ़िगर करने के लिए मेट्रिक्स (केवल तभी आवश्यक है जब मॉडल के साथ सहेजे गए मेट्रिक्स के बाहर अतिरिक्त मेट्रिक्स जोड़े जा रहे हों)। अधिक जानकारी के लिए टेन्सरफ़्लो मॉडल विश्लेषण मेट्रिक्स देखें।
  • कॉन्फ़िगर करने के लिए स्लाइस (यदि कोई स्लाइस नहीं दी गई है तो डिफ़ॉल्ट रूप से एक "समग्र" स्लाइस जोड़ा जाएगा)। अधिक जानकारी के लिए टेन्सरफ़्लो मॉडल विश्लेषण सेटअप देखें।

यदि सत्यापन को शामिल किया जाना है, तो निम्नलिखित अतिरिक्त जानकारी की आवश्यकता है:

सक्षम होने पर, परिभाषित किए गए सभी मेट्रिक्स और स्लाइस के विरुद्ध सत्यापन किया जाएगा।

विशिष्ट कोड इस तरह दिखता है:

import tensorflow_model_analysis as tfma
...

# For TFMA evaluation

eval_config = tfma.EvalConfig(
    model_specs=[
        # This assumes a serving model with signature 'serving_default'. If
        # using estimator based EvalSavedModel, add signature_name='eval' and
        # remove the label_key. Note, if using a TFLite model, then you must set
        # model_type='tf_lite'.
        tfma.ModelSpec(label_key='<label_key>')
    ],
    metrics_specs=[
        tfma.MetricsSpec(
            # The metrics added here are in addition to those saved with the
            # model (assuming either a keras model or EvalSavedModel is used).
            # Any metrics added into the saved model (for example using
            # model.compile(..., metrics=[...]), etc) will be computed
            # automatically.
            metrics=[
                tfma.MetricConfig(class_name='ExampleCount'),
                tfma.MetricConfig(
                    class_name='BinaryAccuracy',
                    threshold=tfma.MetricThreshold(
                        value_threshold=tfma.GenericValueThreshold(
                            lower_bound={'value': 0.5}),
                        change_threshold=tfma.GenericChangeThreshold(
                            direction=tfma.MetricDirection.HIGHER_IS_BETTER,
                            absolute={'value': -1e-10})))
            ]
        )
    ],
    slicing_specs=[
        # An empty slice spec means the overall slice, i.e. the whole dataset.
        tfma.SlicingSpec(),
        # Data can be sliced along a feature column. In this case, data is
        # sliced along feature column trip_start_hour.
        tfma.SlicingSpec(feature_keys=['trip_start_hour'])
    ])

# The following component is experimental and may change in the future. This is
# required to specify the latest blessed model will be used as the baseline.
model_resolver = Resolver(
      strategy_class=dsl.experimental.LatestBlessedModelStrategy,
      model=Channel(type=Model),
      model_blessing=Channel(type=ModelBlessing)
).with_id('latest_blessed_model_resolver')

model_analyzer = Evaluator(
      examples=examples_gen.outputs['examples'],
      model=trainer.outputs['model'],
      baseline_model=model_resolver.outputs['model'],
      # Change threshold will be ignored if there is no baseline (first run).
      eval_config=eval_config)

मूल्यांकनकर्ता एक EvalResult (और यदि सत्यापन का उपयोग किया गया था तो वैकल्पिक रूप से एक ValidationResult ) उत्पन्न करता है जिसे TFMA का उपयोग करके लोड किया जा सकता है। ज्यूपिटर नोटबुक में परिणामों को कैसे लोड किया जाए इसका एक उदाहरण निम्नलिखित है:

import tensorflow_model_analysis as tfma

output_path = evaluator.outputs['evaluation'].get()[0].uri

# Load the evaluation results.
eval_result = tfma.load_eval_result(output_path)

# Visualize the metrics and plots using tfma.view.render_slicing_metrics,
# tfma.view.render_plot, etc.
tfma.view.render_slicing_metrics(tfma_result)
...

# Load the validation results
validation_result = tfma.load_validation_result(output_path)
if not validation_result.validation_ok:
  ...

अधिक विवरण मूल्यांकनकर्ता एपीआई संदर्भ में उपलब्ध हैं।