AdaGradDA

পাবলিক ক্লাস AdaGradDA

অপ্টিমাইজার যা অ্যাডাগ্রাড ডুয়াল-অ্যাভারেজিং অ্যালগরিদম প্রয়োগ করে৷

এই অপ্টিমাইজারটি একটি মিনি ব্যাচে অদেখা বৈশিষ্ট্যগুলির নিয়মিতকরণের যত্ন নেয় যখন সেগুলিকে একটি বন্ধ ফর্ম আপডেট নিয়মের সাথে দেখা যায় যা প্রতিটি মিনি-ব্যাচে তাদের আপডেট করার সমতুল্য।

AdagradDA সাধারণত ব্যবহৃত হয় যখন প্রশিক্ষিত মডেলে বড় স্পর্সিটির প্রয়োজন হয়। এই অপ্টিমাইজার শুধুমাত্র রৈখিক মডেলের জন্য স্পার্সিটির গ্যারান্টি দেয়। গভীর নেটওয়ার্কগুলির জন্য AdagradDA ব্যবহার করার সময় সতর্কতা অবলম্বন করুন কারণ এটিকে প্রশিক্ষণের জন্য গ্রেডিয়েন্ট অ্যাকুমুলেটরগুলির সাবধানে শুরু করতে হবে।

ধ্রুবক

স্ট্রিং সঞ্চয়কারী
ভাসা INITIAL_ACCUMULATOR_DEFAULT
ভাসা L1_STRENGTH_DEFAULT
ভাসা L2_STRENGTH_DEFAULT
ভাসা LEARNING_RATE_DEFAULT
স্ট্রিং SQUARED_ACCUMULATOR

উত্তরাধিকার সূত্রে প্রাপ্ত ধ্রুবক

পাবলিক কনস্ট্রাক্টর

AdaGradDA ( গ্রাফ গ্রাফ)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে
AdaGradDA ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে
AdaGradDA ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু, ফ্লোট l1স্ট্রেংথ, ফ্লোট l2স্ট্রেংথ)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে
AdaGradDA ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে
AdaGradDA ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু, ফ্লোট l1স্ট্রেংথ, ফ্লোট l2স্ট্রেংথ)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে

পাবলিক পদ্ধতি

স্ট্রিং
getOptimizerName ()
অপ্টিমাইজারের নাম পান।
স্ট্রিং

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

ধ্রুবক

পাবলিক স্ট্যাটিক ফাইনাল স্ট্রিং অ্যাকিউমুলেটর

ধ্রুবক মান: "গ্রেডিয়েন্ট_সঞ্চয়কারী"

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট INITIAL_ACCUMULATOR_DEFAULT

ধ্রুবক মান: 0.1

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট L1_STRENGTH_DEFAULT

ধ্রুবক মান: 0.0

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট L2_STRENGTH_DEFAULT

ধ্রুবক মান: 0.0

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট LEARNING_RATE_DEFAULT

ধ্রুবক মান: 0.001

সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং SQUARED_ACCUMULATOR৷

ধ্রুবক মান: "গ্রেডিয়েন্ট_স্কোয়ার_সঞ্চয়কারী"

পাবলিক কনস্ট্রাক্টর

পাবলিক AdaGradDA ( গ্রাফ গ্রাফ)

একটি AdaGradDA অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ

পাবলিক AdaGradDA ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)

একটি AdaGradDA অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
শেখার হার শেখার হার

পাবলিক AdaGradDA ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু, ফ্লোট l1স্ট্রেংথ, ফ্লোট l2স্ট্রেংথ)

একটি AdaGradDA অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
শেখার হার শেখার হার
initialAccumulatorValue সঞ্চয়কারীদের জন্য শুরুর মান অবশ্যই শূন্যের চেয়ে বেশি হতে হবে।
l1 শক্তি l1 নিয়মিতকরণ শক্তি, শূন্যের চেয়ে বেশি বা সমান হতে হবে।
l2 শক্তি l2 নিয়মিতকরণ শক্তি, শূন্যের চেয়ে বেশি বা সমান হতে হবে।
নিক্ষেপ করে
অবৈধ আর্গুমেন্ট ব্যতিক্রম যদি প্রাথমিক অ্যাকুমুলেটর মান শূন্যের বেশি না হয়, বা l1 শক্তি বা l2 শক্তি শূন্যের কম হয়

পাবলিক AdaGradDA ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)

একটি AdaGradDA অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
নাম এই অপ্টিমাইজারের নাম (ডিফল্ট 'adagrad-da')
শেখার হার শেখার হার

সর্বজনীন AdaGradDA ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু, ফ্লোট l1স্ট্রেংথ, ফ্লোট l2স্ট্রেংথ)

একটি AdaGradDA অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
নাম এই অপ্টিমাইজারের নাম (ডিফল্ট 'adagrad-da')
শেখার হার শেখার হার
initialAccumulatorValue Accumulators জন্য শুরু মান, অবশ্যই ইতিবাচক হতে হবে
l1 শক্তি l1 নিয়মিতকরণ শক্তি, শূন্যের চেয়ে বেশি বা সমান হতে হবে।
l2 শক্তি l2 নিয়মিতকরণ শক্তি, শূন্যের চেয়ে বেশি বা সমান হতে হবে।
নিক্ষেপ করে
অবৈধ আর্গুমেন্ট ব্যতিক্রম যদি প্রাথমিক অ্যাকুমুলেটর মান শূন্যের বেশি না হয়, বা * l1 শক্তি বা l2 শক্তি শূন্যের কম হয়

পাবলিক পদ্ধতি

সর্বজনীন স্ট্রিং getOptimizerName ()

অপ্টিমাইজারের নাম পান।

রিটার্নস
  • অপ্টিমাইজারের নাম।

পাবলিক স্ট্রিং থেকে স্ট্রিং ()