এবার শুরু করা যাক

এই নথিটি অনুমান করে যে আপনি ইতিমধ্যেই ডিফারেনশিয়াল গোপনীয়তার সাথে পরিচিত, এবং আপনি নির্ধারণ করেছেন যে আপনি আপনার মডেল(গুলি) তে ডিফারেনশিয়াল গোপনীয়তা গ্যারান্টি প্রয়োগ করতে TF গোপনীয়তা ব্যবহার করতে চান৷ আপনি ডিফারেনশিয়াল গোপনীয়তার সাথে পরিচিত না হলে, ওভারভিউ পৃষ্ঠাটি পর্যালোচনা করুন। TF গোপনীয়তা ইনস্টল করার পরে, এই পদক্ষেপগুলি অনুসরণ করে শুরু করুন:

1. একটি বিদ্যমান অপ্টিমাইজারের একটি পৃথকভাবে ব্যক্তিগত সংস্করণ চয়ন করুন৷

আপনি যদি বর্তমানে একটি TensorFlow অপ্টিমাইজার ব্যবহার করছেন, আপনি সম্ভবত DPKeras*Optimizer নামের একটি অপ্টিমাইজার নির্বাচন করতে চাইবেন, যেমন [ TF Privacy ]-এ [ DPKerasAdamOptimizer ]।

ঐচ্ছিকভাবে, আপনি [ tf_privacy.VectorizedDPKerasAdamOptimizer ] এর মত ভেক্টরাইজড অপ্টিমাইজার ব্যবহার করে দেখতে পারেন। একটি সম্ভাব্য গতির উন্নতির জন্য (প্রতি সেকেন্ডে বিশ্বব্যাপী পদক্ষেপের পরিপ্রেক্ষিতে)। ভেক্টরাইজড অপ্টিমাইজার ব্যবহার পরীক্ষায় অসামঞ্জস্যপূর্ণ গতি প্রদানের জন্য পাওয়া গেছে, কিন্তু এখনও ভালভাবে বোঝা যায় নি। আগের মতো, আপনি সম্ভবত এখন যেটি ব্যবহার করছেন তার অনুরূপ একটি অপ্টিমাইজার ব্যবহার করতে চাইবেন। এই ভেক্টরাইজড অপ্টিমাইজারগুলি Tensorflow এর vectorized_map অপারেটর ব্যবহার করে, যা অন্য কিছু Tensorflow অপারেটরের সাথে কাজ নাও করতে পারে। যদি এটি আপনার ক্ষেত্রে হয়, তাহলে অনুগ্রহ করে TF প্রাইভেসি গিটহাব রিপোজিটরিতে একটি সমস্যা খুলুন

2. আপনার ইনপুট মিনিব্যাচের জন্য ক্ষতি গণনা করুন

আপনার ইনপুট মিনিব্যাচের ক্ষতি গণনা করার সময়, এটি একটি স্কেলারে একত্রিত করার পরিবর্তে, প্রতি উদাহরণে একটি এন্ট্রি সহ একটি ভেক্টর তা নিশ্চিত করুন৷ এটি প্রয়োজনীয় কারণ DP-SGD অবশ্যই পৃথক মাইক্রোব্যাচগুলির জন্য ক্ষতি গণনা করতে সক্ষম হবে।

3. আপনার মডেল প্রশিক্ষণ

DP অপ্টিমাইজার (ধাপ 1) এবং ভেক্টরাইজড ক্ষতি (ধাপ 2) ব্যবহার করে আপনার মডেলকে প্রশিক্ষণ দিন। এটি করার জন্য দুটি বিকল্প আছে:

  • Model.fit কল করার আগে Model.compile এ আর্গুমেন্ট হিসাবে অপ্টিমাইজার এবং ক্ষতি পাস করুন।
  • একটি কাস্টম প্রশিক্ষণ লুপ লেখার সময়, ভেক্টরাইজড ক্ষতির উপর Optimizer.minimize() ব্যবহার করুন।

একবার এটি হয়ে গেলে, এটি সুপারিশ করা হয় যে আপনি আপনার হাইপারপ্যারামিটারগুলি টিউন করুন৷ একটি সম্পূর্ণ ওয়াকথ্রু জন্য শ্রেণীবিভাগ গোপনীয়তা টিউটোরিয়াল দেখুন

4. DP-SGD হাইপারপ্যারামিটার টিউন করুন

সমস্ত tf_privacy অপ্টিমাইজার তিনটি অতিরিক্ত হাইপারপ্যারামিটার নেয়:

  • l2_norm_clip বা \(C\) - ক্লিপিং আদর্শ (মিনিব্যাচ প্রতি গণনা করা প্রতিটি পৃথক গ্রেডিয়েন্টের সর্বোচ্চ ইউক্লিডীয় (L2) আদর্শ)।
  • noise_multiplier বা \(σ\) - ক্লিপিং আদর্শের সাথে আদর্শ বিচ্যুতির অনুপাত।
  • num_microbatches বা \(B\) - মাইক্রোব্যাচের সংখ্যা যেখানে প্রতিটি মিনিব্যাচকে বিভক্ত করা হয়েছে।

সাধারণত, কার্যকর মান বিচ্যুতি \(σC / B\)যত কম হবে, তার মূল্যায়ন মেট্রিক্সে প্রশিক্ষিত মডেলের কর্মক্ষমতা তত ভালো হবে।

তিনটি নতুন DP-SGD হাইপারপ্যারামিটারের নিম্নলিখিত প্রভাব এবং ট্রেডঅফ রয়েছে:

  1. মাইক্রোব্যাচের সংখ্যা \(B\): সাধারণত, এটি বাড়ানো ইউটিলিটি উন্নত করবে কারণ এটি শব্দের আদর্শ বিচ্যুতিকে কম করে। তবে, এটি সময়ের পরিপ্রেক্ষিতে প্রশিক্ষণকে ধীর করে দেবে।
  2. ক্লিপিং আদর্শ \(C\): যেহেতু\(C\)এর সাথে নয়েজ স্কেলের মানক বিচ্যুতি, তাই সম্ভবত গ্রেডিয়েন্ট নিয়মের কিছু কোয়ান্টাইল (যেমন মধ্য, 75 তম পার্সেন্টাইল, 90 তম পার্সেন্টাইল) হতে \(C\) সেট করা ভাল। \(C\) এর মান খুব বেশি হলে অপ্রয়োজনীয়ভাবে বড় পরিমাণে শব্দ হয়।
  3. নয়েজ মাল্টিপ্লায়ার \(σ\): তিনটি হাইপারপ্যারামিটারের মধ্যে, গোপনীয়তার পরিমাণ শুধুমাত্র নয়েজ গুণকের উপর নির্ভর করে। শব্দ গুণক যত বড় হবে, তত বেশি গোপনীয়তা পাওয়া যাবে; যাইহোক, এটি ইউটিলিটির ক্ষতির সাথে আসে।

পদক্ষেপ/সেকেন্ডের ক্ষেত্রে ইউটিলিটি, গোপনীয়তা এবং গতির মধ্যে এই ট্রেডঅফগুলি এখানে সংক্ষিপ্ত করা হয়েছে:

ট্রেডঅফ

সর্বোত্তম হাইপারপ্যারামিটার খুঁজে পেতে এই পরামর্শগুলি অনুসরণ করুন:

  • উপরে প্রস্তাবিত হিসাবে \(C\) কে একটি কোয়ান্টাইল সেট করুন। 1.00 এর মান প্রায়ই ভাল কাজ করে।
  • সর্বোচ্চ প্রশিক্ষণের গতির জন্য \(B\) = 1 সেট করুন।
  • σ-এর সবচেয়ে বড় মান খুঁজে বের করতে পরীক্ষা করুন যা এখনও গ্রহণযোগ্য উপযোগিতা দেয়। সাধারণত, 0.01 বা তার নিচের মানগুলি ভালভাবে কাজ করতে দেখা গেছে।
  • \(σ\) এর উপযুক্ত মান পাওয়া গেলে, গোপনীয়তার একটি যুক্তিসঙ্গত স্তর অর্জনের জন্য \(B\) এবং \(σ\) উভয়কেই একটি ধ্রুবক দ্বারা স্কেল করুন।