AdaGrad

পাবলিক ক্লাস AdaGrad

অপ্টিমাইজার যা অ্যাডাগ্রাড অ্যালগরিদম প্রয়োগ করে।

অ্যাডাগ্রাড হল পরামিতি-নির্দিষ্ট শিক্ষার হার সহ একটি অপ্টিমাইজার, যা প্রশিক্ষণের সময় একটি প্যারামিটার কত ঘন ঘন আপডেট হয় তার সাথে সাপেক্ষে অভিযোজিত হয়। একটি প্যারামিটার যত বেশি আপডেট পাবে, আপডেট তত ছোট হবে।

ধ্রুবক

স্ট্রিং সঞ্চয়কারী
ভাসা INITIAL_ACCUMULATOR_DEFAULT
ভাসা LEARNING_RATE_DEFAULT

উত্তরাধিকার সূত্রে প্রাপ্ত ধ্রুবক

org.tensorflow.framework.optimizers.Optimizer ক্লাস থেকে
স্ট্রিং VARIABLE_V2

পাবলিক কনস্ট্রাক্টর

AdaGrad ( গ্রাফ গ্রাফ)
একটি AdaGrad অপ্টিমাইজার তৈরি করে
AdaGrad ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)
একটি AdaGrad অপ্টিমাইজার তৈরি করে
AdaGrad ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু)
একটি AdaGrad অপ্টিমাইজার তৈরি করে
AdaGrad ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)
একটি AdaGrad অপ্টিমাইজার তৈরি করে
AdaGrad ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু)
একটি AdaGrad অপ্টিমাইজার তৈরি করে

পাবলিক পদ্ধতি

স্ট্রিং
getOptimizerName ()
অপ্টিমাইজারের নাম পান।
স্ট্রিং

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

org.tensorflow.framework.optimizers.Optimizer ক্লাস থেকে
অপ
গ্রেডিয়েন্ট প্রয়োগ করুন (তালিকা< GradAndVar <? প্রসারিত TType >> gradsAndVars, স্ট্রিং নাম)
ভেরিয়েবলে গ্রেডিয়েন্ট প্রয়োগ করে
<T প্রসারিত করে TType > তালিকা< GradAndVar <?>>
computeGradients ( অপারেন্ড <?> ক্ষতি)
লস অপারেন্ডের উপর ভিত্তি করে গ্রেডিয়েন্ট গণনা করে।
স্ট্যাটিক স্ট্রিং
createName ( আউটপুট <? প্রসারিত TType > ভেরিয়েবল, স্ট্রিং স্লটনাম)
একটি পরিবর্তনশীল নাম এবং একটি স্লট নাম একত্রিত করে একটি নাম তৈরি করে
বিমূর্ত স্ট্রিং
getOptimizerName ()
অপ্টিমাইজারের নাম পান।
<T প্রসারিত করে TType > ঐচ্ছিক< পরিবর্তনশীল <T>>
getSlot ( আউটপুট <T> var, স্ট্রিং স্লটনাম)
নির্দিষ্ট ভেরিয়েবল এবং স্লট নামের সাথে যুক্ত স্লট পায়।
চূড়ান্ত অপারেশন
getTF ()
অপ্টিমাইজারের অপস ইনস্ট্যান্স পায়
অপ
মিনিমাইজ করুন ( অপারেন্ড <?> ক্ষতি)
ভেরিয়েবল আপডেট করে ক্ষতি কম করে
অপ
ছোট করুন ( অপারেন্ড <?> ক্ষতি, স্ট্রিং নাম)
ভেরিয়েবল আপডেট করে ক্ষতি কম করে
বুলিয়ান
সমান (অবজেক্ট arg0)
চূড়ান্ত ক্লাস<?>
getClass ()
int
হ্যাশ কোড ()
চূড়ান্ত শূন্যতা
অবহিত ()
চূড়ান্ত শূন্যতা
সকলকে অবহিত করুন ()
স্ট্রিং
স্ট্রিং ()
চূড়ান্ত শূন্যতা
অপেক্ষা করুন (দীর্ঘ arg0, int arg1)
চূড়ান্ত শূন্যতা
অপেক্ষা করুন (দীর্ঘ arg0)
চূড়ান্ত শূন্যতা
অপেক্ষা করুন ()

ধ্রুবক

পাবলিক স্ট্যাটিক ফাইনাল স্ট্রিং অ্যাকিউমুলেটর

ধ্রুবক মান: "সঞ্চয়কারী"

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট INITIAL_ACCUMULATOR_DEFAULT

ধ্রুবক মান: 0.01

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট LEARNING_RATE_DEFAULT

ধ্রুবক মান: 0.001

পাবলিক কনস্ট্রাক্টর

পাবলিক অ্যাডাগ্রাড ( গ্রাফ গ্রাফ)

একটি AdaGrad অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ

পাবলিক অ্যাডাগ্রাড ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)

একটি AdaGrad অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
শেখার হার শেখার হার

পাবলিক অ্যাডাগ্রাড ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু)

একটি AdaGrad অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
শেখার হার শেখার হার
initialAccumulatorValue Accumulators জন্য শুরু মান, অ নেতিবাচক হতে হবে.
নিক্ষেপ করে
অবৈধ আর্গুমেন্ট ব্যতিক্রম যদি initialAccumulatorValue ঋণাত্মক হয়

পাবলিক অ্যাডাগ্রাড ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)

একটি AdaGrad অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
নাম এই অপ্টিমাইজারের নাম (ডিফল্ট 'অ্যাডাগ্রাড')
শেখার হার শেখার হার

পাবলিক অ্যাডাগ্রাড ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু)

একটি AdaGrad অপ্টিমাইজার তৈরি করে

পরামিতি
চিত্রলেখ টেনসরফ্লো গ্রাফ
নাম এই অপ্টিমাইজারের নাম (ডিফল্ট 'অ্যাডাগ্রাড')
শেখার হার শেখার হার
initialAccumulatorValue Accumulators জন্য শুরু মান, অ নেতিবাচক হতে হবে.
নিক্ষেপ করে
অবৈধ আর্গুমেন্ট ব্যতিক্রম যদি initialAccumulatorValue ঋণাত্মক হয়

পাবলিক পদ্ধতি

সর্বজনীন স্ট্রিং getOptimizerName ()

অপ্টিমাইজারের নাম পান।

রিটার্নস
  • অপ্টিমাইজারের নাম।

পাবলিক স্ট্রিং থেকে স্ট্রিং ()