7 दिसंबर को महिला एमएल संगोष्ठी में भाग लें अभी पंजीकरण करें

ओवरफिट और अंडरफिट

संग्रह की मदद से व्यवस्थित रहें अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.

TensorFlow.org पर देखें Google Colab में चलाएं GitHub पर स्रोत देखें नोटबुक डाउनलोड करें

हमेशा की तरह, इस उदाहरण में कोड tf.keras API का उपयोग करेगा, जिसके बारे में आप TensorFlow Keras गाइड में अधिक जान सकते हैं।

पिछले दोनों उदाहरणों में - टेक्स्ट को वर्गीकृत करना और ईंधन दक्षता की भविष्यवाणी करना - हमने देखा कि सत्यापन डेटा पर हमारे मॉडल की सटीकता कई युगों के प्रशिक्षण के बाद चरम पर होगी, और फिर स्थिर हो जाएगी या घटने लगेगी।

दूसरे शब्दों में, हमारा मॉडल प्रशिक्षण डेटा से आगे निकल जाएगा। ओवरफिटिंग से निपटने का तरीका सीखना महत्वपूर्ण है। यद्यपि प्रशिक्षण सेट पर उच्च सटीकता प्राप्त करना अक्सर संभव होता है, हम वास्तव में ऐसे मॉडल विकसित करना चाहते हैं जो परीक्षण सेट (या डेटा जो उन्होंने पहले नहीं देखा है) के लिए अच्छी तरह से सामान्यीकृत किया हो।

ओवरफिटिंग के विपरीत अंडरफिटिंग है। अंडरफिटिंग तब होती है जब ट्रेन डेटा में सुधार की गुंजाइश होती है। यह कई कारणों से हो सकता है: यदि मॉडल पर्याप्त शक्तिशाली नहीं है, अति-नियमित है, या बस पर्याप्त रूप से प्रशिक्षित नहीं किया गया है। इसका मतलब है कि नेटवर्क ने प्रशिक्षण डेटा में प्रासंगिक पैटर्न नहीं सीखा है।

यदि आप बहुत लंबे समय तक प्रशिक्षण लेते हैं, तो मॉडल ओवरफिट होना शुरू कर देगा और प्रशिक्षण डेटा से पैटर्न सीखना शुरू कर देगा जो परीक्षण डेटा को सामान्यीकृत नहीं करता है। हमें संतुलन बनाने की जरूरत है। यह समझना कि उचित संख्या में युगों के लिए कैसे प्रशिक्षित किया जाए, जैसा कि हम नीचे देखेंगे, एक उपयोगी कौशल है।

ओवरफिटिंग को रोकने के लिए, सबसे अच्छा समाधान अधिक संपूर्ण प्रशिक्षण डेटा का उपयोग करना है। डेटासेट को इनपुट की पूरी श्रृंखला को कवर करना चाहिए जिसे मॉडल से संभालने की उम्मीद है। अतिरिक्त डेटा केवल तभी उपयोगी हो सकता है जब इसमें नए और दिलचस्प मामले शामिल हों।

अधिक संपूर्ण डेटा पर प्रशिक्षित एक मॉडल स्वाभाविक रूप से बेहतर सामान्यीकरण करेगा। जब यह संभव नहीं है, तो अगला सबसे अच्छा समाधान नियमितीकरण जैसी तकनीकों का उपयोग करना है। ये स्थान आपके मॉडल द्वारा संग्रहीत की जा सकने वाली जानकारी की मात्रा और प्रकार पर प्रतिबंध लगाते हैं। यदि कोई नेटवर्क केवल कुछ पैटर्नों को याद रखने का जोखिम उठा सकता है, तो अनुकूलन प्रक्रिया उसे सबसे प्रमुख पैटर्न पर ध्यान केंद्रित करने के लिए मजबूर करेगी, जिसमें अच्छी तरह से सामान्यीकरण की बेहतर संभावना है।

इस नोटबुक में, हम कई सामान्य नियमितीकरण तकनीकों का पता लगाएंगे, और उनका उपयोग वर्गीकरण मॉडल में सुधार के लिए करेंगे।

सेट अप

आरंभ करने से पहले, आवश्यक पैकेज आयात करें:

import tensorflow as tf

from tensorflow.keras import layers
from tensorflow.keras import regularizers

print(tf.__version__)
2.8.0-rc1
!pip install git+https://github.com/tensorflow/docs

import tensorflow_docs as tfdocs
import tensorflow_docs.modeling
import tensorflow_docs.plots
from  IPython import display
from matplotlib import pyplot as plt

import numpy as np

import pathlib
import shutil
import tempfile
logdir = pathlib.Path(tempfile.mkdtemp())/"tensorboard_logs"
shutil.rmtree(logdir, ignore_errors=True)

हिग्स डेटासेट

इस ट्यूटोरियल का लक्ष्य कण भौतिकी करना नहीं है, इसलिए डेटासेट के विवरण पर ध्यान न दें। इसमें 11,000,000 उदाहरण हैं, प्रत्येक में 28 विशेषताएं हैं, और एक बाइनरी क्लास लेबल है।

gz = tf.keras.utils.get_file('HIGGS.csv.gz', 'http://mlphysics.ics.uci.edu/data/higgs/HIGGS.csv.gz')
Downloading data from http://mlphysics.ics.uci.edu/data/higgs/HIGGS.csv.gz
2816409600/2816407858 [==============================] - 123s 0us/step
2816417792/2816407858 [==============================] - 123s 0us/step
FEATURES = 28

tf.data.experimental.CsvDataset वर्ग का उपयोग बिना किसी मध्यवर्ती डीकंप्रेसन चरण के सीधे gzip फ़ाइल से csv रिकॉर्ड पढ़ने के लिए किया जा सकता है।

ds = tf.data.experimental.CsvDataset(gz,[float(),]*(FEATURES+1), compression_type="GZIP")

वह सीएसवी पाठक वर्ग प्रत्येक रिकॉर्ड के लिए स्केलर की एक सूची देता है। निम्न फ़ंक्शन स्केलर्स की उस सूची को एक (फीचर_वेक्टर, लेबल) जोड़ी में दोबारा पैक करता है।

def pack_row(*row):
  label = row[0]
  features = tf.stack(row[1:],1)
  return features, label

डेटा के बड़े बैचों पर काम करते समय TensorFlow सबसे कुशल है।

इसलिए प्रत्येक पंक्ति को अलग-अलग रीपैक करने के बजाय एक नया Dataset बनाएं जो 10000-उदाहरणों के बैच लेता है, प्रत्येक बैच में pack_row फ़ंक्शन लागू करता है, और फिर बैचों को अलग-अलग रिकॉर्ड में विभाजित करता है:

packed_ds = ds.batch(10000).map(pack_row).unbatch()

इस नए packed_ds के कुछ रिकॉर्ड पर एक नज़र डालें।

सुविधाएँ पूरी तरह से सामान्यीकृत नहीं हैं, लेकिन यह इस ट्यूटोरियल के लिए पर्याप्त है।

for features,label in packed_ds.batch(1000).take(1):
  print(features[0])
  plt.hist(features.numpy().flatten(), bins = 101)
tf.Tensor(
[ 0.8692932  -0.6350818   0.22569026  0.32747006 -0.6899932   0.75420225
 -0.24857314 -1.0920639   0.          1.3749921  -0.6536742   0.9303491
  1.1074361   1.1389043  -1.5781983  -1.0469854   0.          0.65792954
 -0.01045457 -0.04576717  3.1019614   1.35376     0.9795631   0.97807616
  0.92000484  0.72165745  0.98875093  0.87667835], shape=(28,), dtype=float32)

पीएनजी

इस ट्यूटोरियल को अपेक्षाकृत कम रखने के लिए सत्यापन के लिए पहले 1000 नमूनों का उपयोग करें, और प्रशिक्षण के लिए अगले 10,000 का उपयोग करें:

N_VALIDATION = int(1e3)
N_TRAIN = int(1e4)
BUFFER_SIZE = int(1e4)
BATCH_SIZE = 500
STEPS_PER_EPOCH = N_TRAIN//BATCH_SIZE

Dataset.skip और Dataset.take तरीके इसे आसान बनाते हैं।

उसी समय, यह सुनिश्चित करने के लिए Dataset.cache विधि का उपयोग करें कि लोडर को प्रत्येक युग में फ़ाइल से डेटा को फिर से पढ़ने की आवश्यकता नहीं है:

validate_ds = packed_ds.take(N_VALIDATION).cache()
train_ds = packed_ds.skip(N_VALIDATION).take(N_TRAIN).cache()
train_ds
<CacheDataset element_spec=(TensorSpec(shape=(28,), dtype=tf.float32, name=None), TensorSpec(shape=(), dtype=tf.float32, name=None))>

ये डेटासेट अलग-अलग उदाहरण लौटाते हैं। प्रशिक्षण के लिए उपयुक्त आकार के बैच बनाने के लिए .batch विधि का उपयोग करें। बैचिंग से पहले प्रशिक्षण सेट को .shuffle और .repeat भी याद रखें।

validate_ds = validate_ds.batch(BATCH_SIZE)
train_ds = train_ds.shuffle(BUFFER_SIZE).repeat().batch(BATCH_SIZE)

ओवरफिटिंग का प्रदर्शन करें

ओवरफिटिंग को रोकने का सबसे सरल तरीका एक छोटे मॉडल से शुरू करना है: एक मॉडल जिसमें सीखने योग्य मापदंडों की एक छोटी संख्या होती है (जो परतों की संख्या और प्रति परत इकाइयों की संख्या से निर्धारित होती है)। गहन शिक्षण में, एक मॉडल में सीखने योग्य मापदंडों की संख्या को अक्सर मॉडल की "क्षमता" के रूप में संदर्भित किया जाता है।

सहज रूप से, अधिक मापदंडों वाले एक मॉडल में अधिक "याद रखने की क्षमता" होगी और इसलिए प्रशिक्षण नमूनों और उनके लक्ष्यों के बीच एक आदर्श शब्दकोश जैसी मैपिंग को आसानी से सीखने में सक्षम होगा, बिना किसी सामान्यीकरण शक्ति के एक मानचित्रण, लेकिन भविष्यवाणियां करते समय यह बेकार होगा। पहले के अनदेखे डेटा पर।

इसे हमेशा ध्यान में रखें: गहन शिक्षण मॉडल प्रशिक्षण डेटा को फिट करने में अच्छे होते हैं, लेकिन वास्तविक चुनौती सामान्यीकरण है, फिटिंग नहीं।

दूसरी ओर, यदि नेटवर्क के पास सीमित स्मृति संसाधन हैं, तो वह मानचित्रण को उतनी आसानी से नहीं सीख पाएगा। इसके नुकसान को कम करने के लिए, इसे संकुचित अभ्यावेदन सीखना होगा जिसमें अधिक भविष्य कहनेवाला शक्ति हो। उसी समय, यदि आप अपने मॉडल को बहुत छोटा बनाते हैं, तो प्रशिक्षण डेटा को फिट करने में कठिनाई होगी। "बहुत अधिक क्षमता" और "पर्याप्त क्षमता नहीं" के बीच एक संतुलन है।

दुर्भाग्य से, आपके मॉडल के सही आकार या वास्तुकला को निर्धारित करने के लिए कोई जादुई सूत्र नहीं है (परतों की संख्या, या प्रत्येक परत के लिए सही आकार के संदर्भ में)। आपको विभिन्न आर्किटेक्चर की एक श्रृंखला का प्रयोग करके प्रयोग करना होगा।

एक उपयुक्त मॉडल आकार खोजने के लिए, अपेक्षाकृत कुछ परतों और मापदंडों के साथ शुरू करना सबसे अच्छा है, फिर परतों के आकार को बढ़ाना या नई परतों को जोड़ना शुरू करें जब तक कि आप सत्यापन हानि पर कम रिटर्न नहीं देखते।

केवल layers.Dense का उपयोग करके एक साधारण मॉडल से प्रारंभ करें। आधार रेखा के रूप में घने, फिर बड़े संस्करण बनाएं, और उनकी तुलना करें।

प्रशिक्षण प्रक्रिया

यदि आप प्रशिक्षण के दौरान सीखने की दर को धीरे-धीरे कम करते हैं तो कई मॉडल बेहतर तरीके से प्रशिक्षित होते हैं। समय के साथ सीखने की दर को कम करने के लिए optimizers.schedules का उपयोग करें:

lr_schedule = tf.keras.optimizers.schedules.InverseTimeDecay(
  0.001,
  decay_steps=STEPS_PER_EPOCH*1000,
  decay_rate=1,
  staircase=False)

def get_optimizer():
  return tf.keras.optimizers.Adam(lr_schedule)

उपरोक्त कोड एक schedules.InverseTimeDecay सेट करता है। InverseTimeDecay हाइपरबॉलिक रूप से सीखने की दर को 1000 युगों में आधार दर के 1/2, 2000 युगों में 1/3 और इसी तरह से कम करता है।

step = np.linspace(0,100000)
lr = lr_schedule(step)
plt.figure(figsize = (8,6))
plt.plot(step/STEPS_PER_EPOCH, lr)
plt.ylim([0,max(plt.ylim())])
plt.xlabel('Epoch')
_ = plt.ylabel('Learning Rate')

पीएनजी

इस ट्यूटोरियल में प्रत्येक मॉडल समान प्रशिक्षण कॉन्फ़िगरेशन का उपयोग करेगा। तो कॉलबैक की सूची से शुरू करके इन्हें पुन: प्रयोज्य तरीके से सेट करें।

इस ट्यूटोरियल का प्रशिक्षण कई छोटे युगों तक चलता है। लॉगिंग शोर को कम करने के लिए tfdocs.EpochDots का उपयोग करें जो बस एक प्रिंट करता है . प्रत्येक युग के लिए, और प्रत्येक 100 युगों में मेट्रिक्स का एक पूरा सेट।

इसके बाद callbacks.EarlyStopping शामिल हैं। लंबे और अनावश्यक प्रशिक्षण समय से बचने के लिए अर्लीस्टॉपिंग। ध्यान दें कि यह कॉलबैक val_binary_crossentropy की निगरानी के लिए सेट है, न कि val_loss पर। यह अंतर बाद में महत्वपूर्ण होगा।

callbacks.TensorBoard का उपयोग करें। प्रशिक्षण के लिए TensorBoard लॉग उत्पन्न करने के लिए TensorBoard।

def get_callbacks(name):
  return [
    tfdocs.modeling.EpochDots(),
    tf.keras.callbacks.EarlyStopping(monitor='val_binary_crossentropy', patience=200),
    tf.keras.callbacks.TensorBoard(logdir/name),
  ]

इसी तरह प्रत्येक मॉडल समान Model.compile और Model.fit सेटिंग्स का उपयोग करेगा:

def compile_and_fit(model, name, optimizer=None, max_epochs=10000):
  if optimizer is None:
    optimizer = get_optimizer()
  model.compile(optimizer=optimizer,
                loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
                metrics=[
                  tf.keras.losses.BinaryCrossentropy(
                      from_logits=True, name='binary_crossentropy'),
                  'accuracy'])

  model.summary()

  history = model.fit(
    train_ds,
    steps_per_epoch = STEPS_PER_EPOCH,
    epochs=max_epochs,
    validation_data=validate_ds,
    callbacks=get_callbacks(name),
    verbose=0)
  return history

छोटा मॉडल

एक मॉडल को प्रशिक्षित करके शुरू करें:

tiny_model = tf.keras.Sequential([
    layers.Dense(16, activation='elu', input_shape=(FEATURES,)),
    layers.Dense(1)
])
size_histories = {}
size_histories['Tiny'] = compile_and_fit(tiny_model, 'sizes/Tiny')
Model: "sequential"
_________________________________________________________________
 Layer (type)                Output Shape              Param #   
=================================================================
 dense (Dense)               (None, 16)                464       
                                                                 
 dense_1 (Dense)             (None, 1)                 17        
                                                                 
=================================================================
Total params: 481
Trainable params: 481
Non-trainable params: 0
_________________________________________________________________

Epoch: 0, accuracy:0.4961,  binary_crossentropy:0.7294,  loss:0.7294,  val_accuracy:0.4840,  val_binary_crossentropy:0.7200,  val_loss:0.7200,  
....................................................................................................
Epoch: 100, accuracy:0.5931,  binary_crossentropy:0.6279,  loss:0.6279,  val_accuracy:0.5860,  val_binary_crossentropy:0.6288,  val_loss:0.6288,  
....................................................................................................
Epoch: 200, accuracy:0.6157,  binary_crossentropy:0.6178,  loss:0.6178,  val_accuracy:0.6200,  val_binary_crossentropy:0.6134,  val_loss:0.6134,  
....................................................................................................
Epoch: 300, accuracy:0.6370,  binary_crossentropy:0.6086,  loss:0.6086,  val_accuracy:0.6220,  val_binary_crossentropy:0.6055,  val_loss:0.6055,  
....................................................................................................
Epoch: 400, accuracy:0.6522,  binary_crossentropy:0.6008,  loss:0.6008,  val_accuracy:0.6260,  val_binary_crossentropy:0.5997,  val_loss:0.5997,  
....................................................................................................
Epoch: 500, accuracy:0.6513,  binary_crossentropy:0.5946,  loss:0.5946,  val_accuracy:0.6480,  val_binary_crossentropy:0.5911,  val_loss:0.5911,  
....................................................................................................
Epoch: 600, accuracy:0.6636,  binary_crossentropy:0.5894,  loss:0.5894,  val_accuracy:0.6390,  val_binary_crossentropy:0.5898,  val_loss:0.5898,  
....................................................................................................
Epoch: 700, accuracy:0.6696,  binary_crossentropy:0.5852,  loss:0.5852,  val_accuracy:0.6530,  val_binary_crossentropy:0.5870,  val_loss:0.5870,  
....................................................................................................
Epoch: 800, accuracy:0.6706,  binary_crossentropy:0.5824,  loss:0.5824,  val_accuracy:0.6590,  val_binary_crossentropy:0.5850,  val_loss:0.5850,  
....................................................................................................
Epoch: 900, accuracy:0.6709,  binary_crossentropy:0.5796,  loss:0.5796,  val_accuracy:0.6680,  val_binary_crossentropy:0.5831,  val_loss:0.5831,  
....................................................................................................
Epoch: 1000, accuracy:0.6780,  binary_crossentropy:0.5769,  loss:0.5769,  val_accuracy:0.6530,  val_binary_crossentropy:0.5851,  val_loss:0.5851,  
....................................................................................................
Epoch: 1100, accuracy:0.6735,  binary_crossentropy:0.5752,  loss:0.5752,  val_accuracy:0.6620,  val_binary_crossentropy:0.5807,  val_loss:0.5807,  
....................................................................................................
Epoch: 1200, accuracy:0.6759,  binary_crossentropy:0.5729,  loss:0.5729,  val_accuracy:0.6620,  val_binary_crossentropy:0.5792,  val_loss:0.5792,  
....................................................................................................
Epoch: 1300, accuracy:0.6849,  binary_crossentropy:0.5716,  loss:0.5716,  val_accuracy:0.6450,  val_binary_crossentropy:0.5859,  val_loss:0.5859,  
....................................................................................................
Epoch: 1400, accuracy:0.6790,  binary_crossentropy:0.5695,  loss:0.5695,  val_accuracy:0.6700,  val_binary_crossentropy:0.5776,  val_loss:0.5776,  
....................................................................................................
Epoch: 1500, accuracy:0.6824,  binary_crossentropy:0.5681,  loss:0.5681,  val_accuracy:0.6730,  val_binary_crossentropy:0.5761,  val_loss:0.5761,  
....................................................................................................
Epoch: 1600, accuracy:0.6828,  binary_crossentropy:0.5669,  loss:0.5669,  val_accuracy:0.6690,  val_binary_crossentropy:0.5766,  val_loss:0.5766,  
....................................................................................................
Epoch: 1700, accuracy:0.6874,  binary_crossentropy:0.5657,  loss:0.5657,  val_accuracy:0.6600,  val_binary_crossentropy:0.5774,  val_loss:0.5774,  
....................................................................................................
Epoch: 1800, accuracy:0.6845,  binary_crossentropy:0.5655,  loss:0.5655,  val_accuracy:0.6780,  val_binary_crossentropy:0.5752,  val_loss:0.5752,  
....................................................................................................
Epoch: 1900, accuracy:0.6837,  binary_crossentropy:0.5644,  loss:0.5644,  val_accuracy:0.6790,  val_binary_crossentropy:0.5753,  val_loss:0.5753,  
....................................................................................................
Epoch: 2000, accuracy:0.6853,  binary_crossentropy:0.5632,  loss:0.5632,  val_accuracy:0.6780,  val_binary_crossentropy:0.5753,  val_loss:0.5753,  
....................................................................................................
Epoch: 2100, accuracy:0.6871,  binary_crossentropy:0.5625,  loss:0.5625,  val_accuracy:0.6670,  val_binary_crossentropy:0.5769,  val_loss:0.5769,  
...................................

अब जांचें कि मॉडल ने कैसे किया:

plotter = tfdocs.plots.HistoryPlotter(metric = 'binary_crossentropy', smoothing_std=10)
plotter.plot(size_histories)
plt.ylim([0.5, 0.7])
(0.5, 0.7)

पीएनजी

छोटा मॉडल

यह देखने के लिए कि क्या आप छोटे मॉडल के प्रदर्शन को मात दे सकते हैं, कुछ बड़े मॉडलों को उत्तरोत्तर प्रशिक्षित करें।

प्रत्येक 16 इकाइयों के साथ दो छिपी हुई परतों का प्रयास करें:

small_model = tf.keras.Sequential([
    # `input_shape` is only required here so that `.summary` works.
    layers.Dense(16, activation='elu', input_shape=(FEATURES,)),
    layers.Dense(16, activation='elu'),
    layers.Dense(1)
])
size_histories['Small'] = compile_and_fit(small_model, 'sizes/Small')
Model: "sequential_1"
_________________________________________________________________
 Layer (type)                Output Shape              Param #   
=================================================================
 dense_2 (Dense)             (None, 16)                464       
                                                                 
 dense_3 (Dense)             (None, 16)                272       
                                                                 
 dense_4 (Dense)             (None, 1)                 17        
                                                                 
=================================================================
Total params: 753
Trainable params: 753
Non-trainable params: 0
_________________________________________________________________

Epoch: 0, accuracy:0.4864,  binary_crossentropy:0.7769,  loss:0.7769,  val_accuracy:0.4930,  val_binary_crossentropy:0.7211,  val_loss:0.7211,  
....................................................................................................
Epoch: 100, accuracy:0.6386,  binary_crossentropy:0.6052,  loss:0.6052,  val_accuracy:0.6020,  val_binary_crossentropy:0.6177,  val_loss:0.6177,  
....................................................................................................
Epoch: 200, accuracy:0.6697,  binary_crossentropy:0.5829,  loss:0.5829,  val_accuracy:0.6310,  val_binary_crossentropy:0.6018,  val_loss:0.6018,  
....................................................................................................
Epoch: 300, accuracy:0.6838,  binary_crossentropy:0.5721,  loss:0.5721,  val_accuracy:0.6490,  val_binary_crossentropy:0.5940,  val_loss:0.5940,  
....................................................................................................
Epoch: 400, accuracy:0.6911,  binary_crossentropy:0.5656,  loss:0.5656,  val_accuracy:0.6430,  val_binary_crossentropy:0.5985,  val_loss:0.5985,  
....................................................................................................
Epoch: 500, accuracy:0.6930,  binary_crossentropy:0.5607,  loss:0.5607,  val_accuracy:0.6430,  val_binary_crossentropy:0.6028,  val_loss:0.6028,  
.........................

मध्यम मॉडल

अब 64 इकाइयों के साथ 3 छिपी हुई परतों का प्रयास करें:

medium_model = tf.keras.Sequential([
    layers.Dense(64, activation='elu', input_shape=(FEATURES,)),
    layers.Dense(64, activation='elu'),
    layers.Dense(64, activation='elu'),
    layers.Dense(1)
])

और उसी डेटा का उपयोग करके मॉडल को प्रशिक्षित करें:

size_histories['Medium']  = compile_and_fit(medium_model, "sizes/Medium")
Model: "sequential_2"
_________________________________________________________________
 Layer (type)                Output Shape              Param #   
=================================================================
 dense_5 (Dense)             (None, 64)                1856      
                                                                 
 dense_6 (Dense)             (None, 64)                4160      
                                                                 
 dense_7 (Dense)             (None, 64)                4160      
                                                                 
 dense_8 (Dense)             (None, 1)                 65        
                                                                 
=================================================================
Total params: 10,241
Trainable params: 10,241
Non-trainable params: 0
_________________________________________________________________

Epoch: 0, accuracy:0.5017,  binary_crossentropy:0.6840,  loss:0.6840,  val_accuracy:0.4790,  val_binary_crossentropy:0.6723,  val_loss:0.6723,  
....................................................................................................
Epoch: 100, accuracy:0.7173,  binary_crossentropy:0.5221,  loss:0.5221,  val_accuracy:0.6470,  val_binary_crossentropy:0.6111,  val_loss:0.6111,  
....................................................................................................
Epoch: 200, accuracy:0.7884,  binary_crossentropy:0.4270,  loss:0.4270,  val_accuracy:0.6390,  val_binary_crossentropy:0.7045,  val_loss:0.7045,  
..............................................................

बड़ा मॉडल

एक अभ्यास के रूप में, आप एक और भी बड़ा मॉडल बना सकते हैं, और देख सकते हैं कि यह कितनी जल्दी ओवरफिट होने लगता है। इसके बाद, आइए इस बेंचमार्क में एक ऐसा नेटवर्क जोड़ें जिसमें बहुत अधिक क्षमता हो, समस्या से कहीं अधिक वारंट होगा:

large_model = tf.keras.Sequential([
    layers.Dense(512, activation='elu', input_shape=(FEATURES,)),
    layers.Dense(512, activation='elu'),
    layers.Dense(512, activation='elu'),
    layers.Dense(512, activation='elu'),
    layers.Dense(1)
])

और, फिर से, उसी डेटा का उपयोग करके मॉडल को प्रशिक्षित करें:

size_histories['large'] = compile_and_fit(large_model, "sizes/large")
Model: "sequential_3"
_________________________________________________________________
 Layer (type)                Output Shape              Param #   
=================================================================
 dense_9 (Dense)             (None, 512)               14848     
                                                                 
 dense_10 (Dense)            (None, 512)               262656    
                                                                 
 dense_11 (Dense)            (None, 512)               262656    
                                                                 
 dense_12 (Dense)            (None, 512)               262656    
                                                                 
 dense_13 (Dense)            (None, 1)                 513       
                                                                 
=================================================================
Total params: 803,329
Trainable params: 803,329
Non-trainable params: 0
_________________________________________________________________

Epoch: 0, accuracy:0.5145,  binary_crossentropy:0.7740,  loss:0.7740,  val_accuracy:0.4980,  val_binary_crossentropy:0.6793,  val_loss:0.6793,  
....................................................................................................
Epoch: 100, accuracy:1.0000,  binary_crossentropy:0.0020,  loss:0.0020,  val_accuracy:0.6600,  val_binary_crossentropy:1.8540,  val_loss:1.8540,  
....................................................................................................
Epoch: 200, accuracy:1.0000,  binary_crossentropy:0.0001,  loss:0.0001,  val_accuracy:0.6560,  val_binary_crossentropy:2.5293,  val_loss:2.5293,  
..........................

प्रशिक्षण और सत्यापन हानियों को प्लॉट करें

ठोस रेखाएं प्रशिक्षण हानि दिखाती हैं, और धराशायी रेखाएं सत्यापन हानि दिखाती हैं (याद रखें: कम सत्यापन हानि एक बेहतर मॉडल को इंगित करती है)।

एक बड़े मॉडल का निर्माण करते समय यह अधिक शक्ति देता है, अगर इस शक्ति को किसी भी तरह से बाधित नहीं किया जाता है तो यह आसानी से प्रशिक्षण सेट से अधिक हो सकता है।

इस उदाहरण में, आमतौर पर, केवल "Tiny" मॉडल पूरी तरह से ओवरफिटिंग से बचने का प्रबंधन करता है, और प्रत्येक बड़ा मॉडल डेटा को अधिक तेज़ी से ओवरफिट करता है। यह "large" मॉडल के लिए इतना गंभीर हो जाता है कि वास्तव में क्या हो रहा है यह देखने के लिए आपको प्लॉट को लॉग-स्केल पर स्विच करने की आवश्यकता है।

यह तब स्पष्ट होता है जब आप सत्यापन मेट्रिक्स को प्रशिक्षण मेट्रिक्स से प्लॉट और तुलना करते हैं।

  • एक छोटा सा अंतर होना सामान्य है।
  • यदि दोनों मेट्रिक्स एक ही दिशा में आगे बढ़ रहे हैं, तो सब कुछ ठीक है।
  • यदि प्रशिक्षण मीट्रिक में सुधार जारी रहने के दौरान सत्यापन मीट्रिक स्थिर होना शुरू हो जाता है, तो आप शायद ओवरफिटिंग के करीब हैं।
  • यदि सत्यापन मीट्रिक गलत दिशा में जा रहा है, तो मॉडल स्पष्ट रूप से ओवरफिटिंग है।
plotter.plot(size_histories)
a = plt.xscale('log')
plt.xlim([5, max(plt.xlim())])
plt.ylim([0.5, 0.7])
plt.xlabel("Epochs [Log Scale]")
Text(0.5, 0, 'Epochs [Log Scale]')

पीएनजी

टेंसरबोर्ड में देखें

इन सभी मॉडलों ने प्रशिक्षण के दौरान TensorBoard लॉग लिखे।

एक नोटबुक के अंदर एक एम्बेडेड TensorBoard व्यूअर खोलें:

#docs_infra: no_execute

# Load the TensorBoard notebook extension
%load_ext tensorboard

# Open an embedded TensorBoard viewer
%tensorboard --logdir {logdir}/sizes

आप इस नोटबुक के पिछले रन के परिणाम TensorBoard.dev पर देख सकते हैं।

TensorBoard.dev सभी के साथ ML प्रयोगों को होस्ट करने, ट्रैक करने और साझा करने का एक प्रबंधित अनुभव है।

यह सुविधा के लिए <iframe> में भी शामिल है:

display.IFrame(
    src="https://tensorboard.dev/experiment/vW7jmmF9TmKmy3rbheMQpw/#scalars&_smoothingWeight=0.97",
    width="100%", height="800px")

यदि आप TensorBoard परिणाम साझा करना चाहते हैं, तो आप निम्न को एक कोड-सेल में कॉपी करके TensorBoard.dev पर लॉग अपलोड कर सकते हैं।

tensorboard dev upload --logdir  {logdir}/sizes

ओवरफिटिंग को रोकने के लिए रणनीतियाँ

इस खंड की सामग्री में आने से पहले, तुलना के लिए आधार रेखा के रूप में उपयोग करने के लिए उपरोक्त "Tiny" मॉडल से प्रशिक्षण लॉग की प्रतिलिपि बनाएँ।

shutil.rmtree(logdir/'regularizers/Tiny', ignore_errors=True)
shutil.copytree(logdir/'sizes/Tiny', logdir/'regularizers/Tiny')
PosixPath('/tmp/tmpn1rdh98q/tensorboard_logs/regularizers/Tiny')
regularizer_histories = {}
regularizer_histories['Tiny'] = size_histories['Tiny']

वजन नियमितीकरण जोड़ें

आप ओकम के रेजर सिद्धांत से परिचित हो सकते हैं: किसी चीज़ के लिए दो स्पष्टीकरण दिए गए हैं, स्पष्टीकरण के सही होने की सबसे अधिक संभावना "सरल" है, जो कम से कम धारणाएं बनाती है। यह तंत्रिका नेटवर्क द्वारा सीखे गए मॉडल पर भी लागू होता है: कुछ प्रशिक्षण डेटा और एक नेटवर्क आर्किटेक्चर को देखते हुए, वज़न मान (एकाधिक मॉडल) के कई सेट होते हैं जो डेटा की व्याख्या कर सकते हैं, और सरल मॉडल जटिल लोगों की तुलना में अधिक होने की संभावना कम होती है।

इस संदर्भ में एक "सरल मॉडल" एक ऐसा मॉडल है जहां पैरामीटर मानों के वितरण में कम एन्ट्रॉपी होती है (या कम पैरामीटर वाला एक मॉडल, जैसा कि हमने ऊपर अनुभाग में देखा था)। इस प्रकार ओवरफिटिंग को कम करने का एक सामान्य तरीका है कि नेटवर्क के वजन को केवल छोटे मान लेने के लिए मजबूर करके नेटवर्क की जटिलता पर प्रतिबंध लगाया जाए, जिससे वजन मूल्यों का वितरण अधिक "नियमित" हो जाता है। इसे "वेट रेगुलराइजेशन" कहा जाता है, और यह नेटवर्क के लॉस फंक्शन में बड़े वजन से जुड़ी लागत को जोड़कर किया जाता है। यह लागत दो स्वादों में आती है:

  • L1 नियमितीकरण , जहां जोड़ा गया मूल्य भार गुणांक के निरपेक्ष मूल्य के समानुपाती होता है (अर्थात जिसे भार का "L1 मानदंड" कहा जाता है)।

  • L2 नियमितीकरण , जहां जोड़ा गया मूल्य भार गुणांक के मूल्य के वर्ग के समानुपाती होता है (अर्थात जिसे भार का वर्ग "L2 मानदंड" कहा जाता है)। L2 नियमितीकरण को तंत्रिका नेटवर्क के संदर्भ में वजन में कमी भी कहा जाता है। अलग-अलग नाम को भ्रमित न होने दें: वजन में गिरावट गणितीय रूप से L2 नियमितीकरण के समान ही है।

L1 नियमितीकरण एक विरल मॉडल को प्रोत्साहित करने के लिए वजन को बिल्कुल शून्य की ओर धकेलता है। L2 नियमितीकरण वजन मापदंडों को विरल बनाए बिना दंडित करेगा क्योंकि छोटे वजन के लिए जुर्माना शून्य हो जाता है-एक कारण है कि L2 अधिक सामान्य है।

tf.keras में, वज़न नियमितीकरण को कीवर्ड तर्कों के रूप में परतों में वज़न नियमित करने वाले उदाहरणों को पास करके जोड़ा जाता है। आइए अब L2 वजन नियमितीकरण जोड़ें।

l2_model = tf.keras.Sequential([
    layers.Dense(512, activation='elu',
                 kernel_regularizer=regularizers.l2(0.001),
                 input_shape=(FEATURES,)),
    layers.Dense(512, activation='elu',
                 kernel_regularizer=regularizers.l2(0.001)),
    layers.Dense(512, activation='elu',
                 kernel_regularizer=regularizers.l2(0.001)),
    layers.Dense(512, activation='elu',
                 kernel_regularizer=regularizers.l2(0.001)),
    layers.Dense(1)
])

regularizer_histories['l2'] = compile_and_fit(l2_model, "regularizers/l2")
Model: "sequential_4"
_________________________________________________________________
 Layer (type)                Output Shape              Param #   
=================================================================
 dense_14 (Dense)            (None, 512)               14848     
                                                                 
 dense_15 (Dense)            (None, 512)               262656    
                                                                 
 dense_16 (Dense)            (None, 512)               262656    
                                                                 
 dense_17 (Dense)            (None, 512)               262656    
                                                                 
 dense_18 (Dense)            (None, 1)                 513       
                                                                 
=================================================================
Total params: 803,329
Trainable params: 803,329
Non-trainable params: 0
_________________________________________________________________

Epoch: 0, accuracy:0.5126,  binary_crossentropy:0.7481,  loss:2.2415,  val_accuracy:0.4950,  val_binary_crossentropy:0.6707,  val_loss:2.0653,  
....................................................................................................
Epoch: 100, accuracy:0.6625,  binary_crossentropy:0.5945,  loss:0.6173,  val_accuracy:0.6400,  val_binary_crossentropy:0.5871,  val_loss:0.6100,  
....................................................................................................
Epoch: 200, accuracy:0.6690,  binary_crossentropy:0.5864,  loss:0.6079,  val_accuracy:0.6650,  val_binary_crossentropy:0.5856,  val_loss:0.6076,  
....................................................................................................
Epoch: 300, accuracy:0.6790,  binary_crossentropy:0.5762,  loss:0.5976,  val_accuracy:0.6550,  val_binary_crossentropy:0.5881,  val_loss:0.6095,  
....................................................................................................
Epoch: 400, accuracy:0.6843,  binary_crossentropy:0.5697,  loss:0.5920,  val_accuracy:0.6650,  val_binary_crossentropy:0.5878,  val_loss:0.6101,  
....................................................................................................
Epoch: 500, accuracy:0.6897,  binary_crossentropy:0.5651,  loss:0.5907,  val_accuracy:0.6890,  val_binary_crossentropy:0.5798,  val_loss:0.6055,  
....................................................................................................
Epoch: 600, accuracy:0.6945,  binary_crossentropy:0.5610,  loss:0.5864,  val_accuracy:0.6820,  val_binary_crossentropy:0.5772,  val_loss:0.6026,  
..........................................................

l2(0.001) का अर्थ है कि परत के भार मैट्रिक्स में प्रत्येक गुणांक नेटवर्क के कुल नुकसान में 0.001 * weight_coefficient_value**2 जोड़ देगा।

इसलिए हम सीधे binary_crossentropy की निगरानी कर रहे हैं। क्योंकि इसमें यह नियमितीकरण घटक मिश्रित नहीं है।

तो, L2 नियमितीकरण दंड के साथ वही "Large" मॉडल बहुत बेहतर प्रदर्शन करता है:

plotter.plot(regularizer_histories)
plt.ylim([0.5, 0.7])
(0.5, 0.7)

पीएनजी

जैसा कि आप देख सकते हैं, "L2" नियमित मॉडल अब "Tiny" मॉडल के साथ बहुत अधिक प्रतिस्पर्धी है। यह "L2" मॉडल "Large" मॉडल की तुलना में ओवरफिटिंग के लिए बहुत अधिक प्रतिरोधी है, जिस पर समान संख्या में पैरामीटर होने के बावजूद यह आधारित था।

और जानकारी

इस तरह के नियमितीकरण के बारे में दो महत्वपूर्ण बातें ध्यान देने योग्य हैं।

पहला: यदि आप अपना खुद का प्रशिक्षण लूप लिख रहे हैं, तो आपको मॉडल से इसके नियमितीकरण के नुकसान के बारे में पूछना सुनिश्चित करना होगा।

result = l2_model(features)
regularization_loss=tf.add_n(l2_model.losses)

दूसरा: यह कार्यान्वयन मॉडल के नुकसान में वज़न दंड जोड़कर काम करता है, और उसके बाद मानक अनुकूलन प्रक्रिया लागू करता है।

एक दूसरा दृष्टिकोण है कि इसके बजाय केवल कच्चे नुकसान पर ऑप्टिमाइज़र चलाता है, और फिर गणना किए गए चरण को लागू करते समय ऑप्टिमाइज़र कुछ वजन क्षय भी लागू करता है। यह "डिकूपल्ड वेट डेके" ऑप्टिमाइज़र जैसे optimizers.FTRL .FTRL और optimizers.AdamW में देखा जाता है।

ड्रॉपआउट जोड़ें

ड्रॉपआउट तंत्रिका नेटवर्क के लिए सबसे प्रभावी और सबसे अधिक इस्तेमाल की जाने वाली नियमितीकरण तकनीकों में से एक है, जिसे टोरंटो विश्वविद्यालय में हिंटन और उनके छात्रों द्वारा विकसित किया गया है।

ड्रॉपआउट के लिए सहज व्याख्या यह है कि क्योंकि नेटवर्क में अलग-अलग नोड्स दूसरों के आउटपुट पर भरोसा नहीं कर सकते हैं, इसलिए प्रत्येक नोड को उन विशेषताओं को आउटपुट करना चाहिए जो अपने आप में उपयोगी हैं।

ड्रॉपआउट, एक परत पर लागू होता है, जिसमें प्रशिक्षण के दौरान बेतरतीब ढंग से "ड्रॉप आउट" (यानी शून्य पर सेट) परत की कई आउटपुट विशेषताएं होती हैं। मान लें कि किसी दिए गए परत ने प्रशिक्षण के दौरान दिए गए इनपुट नमूने के लिए सामान्य रूप से एक वेक्टर [0.2, 0.5, 1.3, 0.8, 1.1] लौटाया होगा; ड्रॉपआउट लागू करने के बाद, इस वेक्टर में यादृच्छिक रूप से वितरित कुछ शून्य प्रविष्टियां होंगी, उदाहरण के लिए [0, 0.5, 1.3, 0, 1.1]।

"छोड़ने की दर" उन सुविधाओं का अंश है जिन्हें शून्य किया जा रहा है; यह आमतौर पर 0.2 और 0.5 के बीच सेट होता है। परीक्षण के समय, किसी भी इकाई को बाहर नहीं किया जाता है, और इसके बजाय परत के आउटपुट मूल्यों को ड्रॉपआउट दर के बराबर एक कारक द्वारा घटाया जाता है, ताकि इस तथ्य के लिए संतुलन बनाया जा सके कि प्रशिक्षण समय की तुलना में अधिक इकाइयाँ सक्रिय हैं।

tf.keras में आप ड्रॉपआउट परत के माध्यम से एक नेटवर्क में ड्रॉपआउट का परिचय दे सकते हैं, जो परत के आउटपुट पर ठीक पहले लागू हो जाता है।

आइए अपने नेटवर्क में दो ड्रॉपआउट परतें जोड़ें, यह देखने के लिए कि वे ओवरफिटिंग को कम करने में कितना अच्छा करते हैं:

dropout_model = tf.keras.Sequential([
    layers.Dense(512, activation='elu', input_shape=(FEATURES,)),
    layers.Dropout(0.5),
    layers.Dense(512, activation='elu'),
    layers.Dropout(0.5),
    layers.Dense(512, activation='elu'),
    layers.Dropout(0.5),
    layers.Dense(512, activation='elu'),
    layers.Dropout(0.5),
    layers.Dense(1)
])

regularizer_histories['dropout'] = compile_and_fit(dropout_model, "regularizers/dropout")
Model: "sequential_5"
_________________________________________________________________
 Layer (type)                Output Shape              Param #   
=================================================================
 dense_19 (Dense)            (None, 512)               14848     
                                                                 
 dropout (Dropout)           (None, 512)               0         
                                                                 
 dense_20 (Dense)            (None, 512)               262656    
                                                                 
 dropout_1 (Dropout)         (None, 512)               0         
                                                                 
 dense_21 (Dense)            (None, 512)               262656    
                                                                 
 dropout_2 (Dropout)         (None, 512)               0         
                                                                 
 dense_22 (Dense)            (None, 512)               262656    
                                                                 
 dropout_3 (Dropout)         (None, 512)               0         
                                                                 
 dense_23 (Dense)            (None, 1)                 513       
                                                                 
=================================================================
Total params: 803,329
Trainable params: 803,329
Non-trainable params: 0
_________________________________________________________________

Epoch: 0, accuracy:0.4961,  binary_crossentropy:0.8110,  loss:0.8110,  val_accuracy:0.5330,  val_binary_crossentropy:0.6900,  val_loss:0.6900,  
....................................................................................................
Epoch: 100, accuracy:0.6557,  binary_crossentropy:0.5961,  loss:0.5961,  val_accuracy:0.6710,  val_binary_crossentropy:0.5788,  val_loss:0.5788,  
....................................................................................................
Epoch: 200, accuracy:0.6871,  binary_crossentropy:0.5622,  loss:0.5622,  val_accuracy:0.6860,  val_binary_crossentropy:0.5856,  val_loss:0.5856,  
....................................................................................................
Epoch: 300, accuracy:0.7246,  binary_crossentropy:0.5121,  loss:0.5121,  val_accuracy:0.6820,  val_binary_crossentropy:0.5927,  val_loss:0.5927,  
............
plotter.plot(regularizer_histories)
plt.ylim([0.5, 0.7])
(0.5, 0.7)

पीएनजी

यह इस साजिश से स्पष्ट है कि इन दोनों नियमितीकरण दृष्टिकोण "Large" मॉडल के व्यवहार में सुधार करते हैं। लेकिन यह अभी भी "Tiny" बेसलाइन को भी नहीं हराता है।

अगला उन दोनों को एक साथ आज़माएँ, और देखें कि क्या इससे बेहतर होता है।

संयुक्त L2 + ड्रॉपआउट

combined_model = tf.keras.Sequential([
    layers.Dense(512, kernel_regularizer=regularizers.l2(0.0001),
                 activation='elu', input_shape=(FEATURES,)),
    layers.Dropout(0.5),
    layers.Dense(512, kernel_regularizer=regularizers.l2(0.0001),
                 activation='elu'),
    layers.Dropout(0.5),
    layers.Dense(512, kernel_regularizer=regularizers.l2(0.0001),
                 activation='elu'),
    layers.Dropout(0.5),
    layers.Dense(512, kernel_regularizer=regularizers.l2(0.0001),
                 activation='elu'),
    layers.Dropout(0.5),
    layers.Dense(1)
])

regularizer_histories['combined'] = compile_and_fit(combined_model, "regularizers/combined")
Model: "sequential_6"
_________________________________________________________________
 Layer (type)                Output Shape              Param #   
=================================================================
 dense_24 (Dense)            (None, 512)               14848     
                                                                 
 dropout_4 (Dropout)         (None, 512)               0         
                                                                 
 dense_25 (Dense)            (None, 512)               262656    
                                                                 
 dropout_5 (Dropout)         (None, 512)               0         
                                                                 
 dense_26 (Dense)            (None, 512)               262656    
                                                                 
 dropout_6 (Dropout)         (None, 512)               0         
                                                                 
 dense_27 (Dense)            (None, 512)               262656    
                                                                 
 dropout_7 (Dropout)         (None, 512)               0         
                                                                 
 dense_28 (Dense)            (None, 1)                 513       
                                                                 
=================================================================
Total params: 803,329
Trainable params: 803,329
Non-trainable params: 0
_________________________________________________________________

Epoch: 0, accuracy:0.5090,  binary_crossentropy:0.8064,  loss:0.9648,  val_accuracy:0.4660,  val_binary_crossentropy:0.6877,  val_loss:0.8454,  
....................................................................................................
Epoch: 100, accuracy:0.6445,  binary_crossentropy:0.6050,  loss:0.6350,  val_accuracy:0.6630,  val_binary_crossentropy:0.5871,  val_loss:0.6169,  
....................................................................................................
Epoch: 200, accuracy:0.6660,  binary_crossentropy:0.5932,  loss:0.6186,  val_accuracy:0.6880,  val_binary_crossentropy:0.5722,  val_loss:0.5975,  
....................................................................................................
Epoch: 300, accuracy:0.6697,  binary_crossentropy:0.5818,  loss:0.6100,  val_accuracy:0.6900,  val_binary_crossentropy:0.5614,  val_loss:0.5895,  
....................................................................................................
Epoch: 400, accuracy:0.6749,  binary_crossentropy:0.5742,  loss:0.6046,  val_accuracy:0.6870,  val_binary_crossentropy:0.5576,  val_loss:0.5881,  
....................................................................................................
Epoch: 500, accuracy:0.6854,  binary_crossentropy:0.5703,  loss:0.6029,  val_accuracy:0.6970,  val_binary_crossentropy:0.5458,  val_loss:0.5784,  
....................................................................................................
Epoch: 600, accuracy:0.6806,  binary_crossentropy:0.5673,  loss:0.6015,  val_accuracy:0.6980,  val_binary_crossentropy:0.5453,  val_loss:0.5795,  
....................................................................................................
Epoch: 700, accuracy:0.6937,  binary_crossentropy:0.5583,  loss:0.5938,  val_accuracy:0.6870,  val_binary_crossentropy:0.5477,  val_loss:0.5832,  
....................................................................................................
Epoch: 800, accuracy:0.6911,  binary_crossentropy:0.5576,  loss:0.5947,  val_accuracy:0.7000,  val_binary_crossentropy:0.5446,  val_loss:0.5817,  
.......................
plotter.plot(regularizer_histories)
plt.ylim([0.5, 0.7])
(0.5, 0.7)

पीएनजी

"Combined" नियमितीकरण वाला यह मॉडल स्पष्ट रूप से अब तक का सबसे अच्छा मॉडल है।

टेंसरबोर्ड में देखें

इन मॉडलों ने TensorBoard लॉग भी रिकॉर्ड किए।

एक नोटबुक के अंदर एक एम्बेडेड टेंसरबोर्ड व्यूअर खोलने के लिए, निम्नलिखित को एक कोड-सेल में कॉपी करें:

%tensorboard --logdir {logdir}/regularizers

आप इस नोटबुक के पिछले रन के परिणाम TensorDoard.dev पर देख सकते हैं।

यह सुविधा के लिए <iframe> में भी शामिल है:

display.IFrame(
    src="https://tensorboard.dev/experiment/fGInKDo8TXes1z7HQku9mw/#scalars&_smoothingWeight=0.97",
    width = "100%",
    height="800px")

इसके साथ अपलोड किया गया था:

tensorboard dev upload --logdir  {logdir}/regularizers

निष्कर्ष

संक्षेप में: तंत्रिका नेटवर्क में ओवरफिटिंग को रोकने के सबसे सामान्य तरीके यहां दिए गए हैं:

  • अधिक प्रशिक्षण डेटा प्राप्त करें।
  • नेटवर्क की क्षमता को कम करें।
  • वजन नियमितीकरण जोड़ें।
  • ड्रॉपआउट जोड़ें।

इस गाइड में शामिल नहीं किए गए दो महत्वपूर्ण दृष्टिकोण हैं:

  • डेटा-वृद्धि
  • बैच सामान्यीकरण

याद रखें कि प्रत्येक विधि अपने आप में मदद कर सकती है, लेकिन अक्सर उनका संयोजन और भी अधिक प्रभावी हो सकता है।

# MIT License
#
# Copyright (c) 2017 François Chollet
#
# Permission is hereby granted, free of charge, to any person obtaining a
# copy of this software and associated documentation files (the "Software"),
# to deal in the Software without restriction, including without limitation
# the rights to use, copy, modify, merge, publish, distribute, sublicense,
# and/or sell copies of the Software, and to permit persons to whom the
# Software is furnished to do so, subject to the following conditions:
#
# The above copyright notice and this permission notice shall be included in
# all copies or substantial portions of the Software.
#
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
# IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
# FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL
# THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
# LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
# FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
# DEALINGS IN THE SOFTWARE.