ApplyAdagradDa

পাবলিক ফাইনাল ক্লাস অ্যাপ্লাই অ্যাডগ্রাডডা

প্রক্সিমাল অ্যাডাগ্রাড স্কিম অনুযায়ী '*var' আপডেট করুন।

নেস্টেড ক্লাস

ক্লাস AdagradDa.Options প্রয়োগ করুন ApplyAdagradDa এর জন্য ঐচ্ছিক বৈশিষ্ট্য

ধ্রুবক

স্ট্রিং OP_NAME এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত

পাবলিক পদ্ধতি

আউটপুট <T>
আউটপুট হিসাবে ()
টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।
স্ট্যাটিক <T TType প্রসারিত করে > ApplyAdagradDa <T>
তৈরি করুন ( স্কোপ স্কোপ, Operand <T> var, Operand <T> gradientAccumulator, Operand <T> gradientSquaredAccumulator, Operand <T> grad, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt4 > গ্লোবাল স্টেপ, অপশন... অপশন)
একটি নতুন ApplyAdagradDa অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।
আউটপুট <T>
আউট ()
"var" এর মতোই।
স্ট্যাটিক ApplyAdagradDa.Options
ইউজ লকিং (বুলিয়ান ইউজ লকিং)

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

ধ্রুবক

সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং OP_NAME

এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত

ধ্রুবক মান: "AdagradDA প্রয়োগ করুন"

পাবলিক পদ্ধতি

সর্বজনীন আউটপুট <T> হিসাবে আউটপুট ()

টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।

TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি প্রতীকী হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনাকে প্রতিনিধিত্ব করে।

পাবলিক স্ট্যাটিক প্রয়োগ করুনAdagradDa <T> তৈরি করুন ( স্কোপ স্কোপ, Operand <T> var, Operand <T> gradientAccumulator, Operand <T> gradientSquaredAccumulator, Operand <T> grad, Operand <T> lr, Operand <T> l1, Operand > l2, Operand < TInt64 > globalStep, Options... options)

একটি নতুন ApplyAdagradDa অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।

পরামিতি
সুযোগ বর্তমান সুযোগ
var একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
গ্রেডিয়েন্ট অ্যাকুমুলেটর একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
গ্রেডিয়েন্টস্কোয়ার অ্যাকুমুলেটর একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
স্নাতক গ্রেডিয়েন্ট।
lr স্কেলিং ফ্যাক্টর। একটি স্কেলার হতে হবে।
l1 L1 নিয়মিতকরণ। একটি স্কেলার হতে হবে।
l2 L2 নিয়মিতকরণ। একটি স্কেলার হতে হবে।
বিশ্বস্তর প্রশিক্ষণের ধাপ নম্বর। একটি স্কেলার হতে হবে।
বিকল্প ঐচ্ছিক বৈশিষ্ট্য মান বহন করে
রিটার্নস
  • ApplyAdagradDa এর একটি নতুন উদাহরণ

সর্বজনীন আউটপুট <T> আউট ()

"var" এর মতোই।

পাবলিক স্ট্যাটিক ApplyAdagradDa.Options useLocking (বুলিয়ান ইউজ লকিং)

পরামিতি
লকিং ব্যবহার করুন সত্য হলে, var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে।