संग्रह की मदद से व्यवस्थित रहें अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.

मशीन लर्निंग में गोपनीयता

जिम्मेदार एआई उपयोग का एक महत्वपूर्ण पहलू यह सुनिश्चित करना है कि एमएल मॉडल को संभावित संवेदनशील जानकारी, जैसे जनसांख्यिकीय जानकारी या प्रशिक्षण डेटासेट में अन्य विशेषताओं को उजागर करने से रोका जाता है जिसका उपयोग लोगों की पहचान करने के लिए किया जा सकता है। इसे प्राप्त करने का एक तरीका डिफरेंशियल प्राइवेट स्टोकेस्टिक ग्रेडिएंट डिसेंट (DP-SGD) का उपयोग करना है, जो मशीन लर्निंग में स्टैण्डर्ड स्टोकेस्टिक ग्रेडिएंट डिसेंट (SGD) एल्गोरिथम में संशोधन है।

DP-SGD से प्रशिक्षित मॉडल में मापन योग्य अंतर गोपनीयता (DP) सुधार होते हैं, जो संवेदनशील प्रशिक्षण डेटा को उजागर करने के जोखिम को कम करने में मदद करते हैं। चूंकि डीपी का उद्देश्य अलग-अलग डेटा बिंदुओं को पहचानने से रोकने में मदद करना है, इसलिए डीपी के साथ प्रशिक्षित एक मॉडल अपने प्रशिक्षण डेटा सेट में किसी एक प्रशिक्षण उदाहरण से प्रभावित नहीं होना चाहिए। DP-SGD तकनीकों का उपयोग फ़ेडरेटेड लर्निंग में उपयोगकर्ता-स्तरीय अंतर गोपनीयता प्रदान करने के लिए भी किया जा सकता है। आप मूल पेपर में डिफरेंशियल प्राइवेट डीप लर्निंग के बारे में अधिक जान सकते हैं।

import tensorflow as tf
from tensorflow_privacy.privacy.optimizers import dp_optimizer_keras

# Select your differentially private optimizer
optimizer = tensorflow_privacy.DPKerasSGDOptimizer(
    l2_norm_clip=l2_norm_clip,
    noise_multiplier=noise_multiplier,
    num_microbatches=num_microbatches,
    learning_rate=learning_rate)

# Select your loss function
loss = tf.keras.losses.CategoricalCrossentropy(
    from_logits=True, reduction=tf.losses.Reduction.NONE)

# Compile your model
model.compile(optimizer=optimizer, loss=loss, metrics=['accuracy'])

# Fit your model
model.fit(train_data, train_labels,
  epochs=epochs,
  validation_data=(test_data, test_labels),
  batch_size=batch_size)
  

TensorFlow गोपनीयता

Tensorflow गोपनीयता (TF गोपनीयता) Google अनुसंधान में टीमों द्वारा विकसित एक खुला स्रोत पुस्तकालय है। लाइब्रेरी में DP के साथ ML मॉडल के प्रशिक्षण के लिए आमतौर पर उपयोग किए जाने वाले TensorFlow ऑप्टिमाइज़र का कार्यान्वयन शामिल है। लक्ष्य केवल कुछ पंक्तियों को बदलकर गोपनीयता-संरक्षण मॉडल को प्रशिक्षित करने के लिए मानक Tensorflow API का उपयोग करने वाले ML चिकित्सकों को सक्षम करना है।

अलग-अलग निजी अनुकूलकों का उपयोग उच्च-स्तरीय एपीआई के संयोजन में किया जा सकता है जो ऑप्टिमाइज़र वर्ग, विशेष रूप से केरस का उपयोग करते हैं। इसके अतिरिक्त, आप कुछ केरस मॉडल के अलग-अलग निजी कार्यान्वयन पा सकते हैं। सभी ऑप्टिमाइज़र और मॉडल API दस्तावेज़ीकरण में पाए जा सकते हैं।