SparseApplyAdagradDa

পাবলিক ফাইনাল ক্লাস SparseApplyAdagradDa

প্রক্সিমাল অ্যাডাগ্রাড স্কিম অনুযায়ী '*var' এবং '*accum'-এ এন্ট্রি আপডেট করুন।

নেস্টেড ক্লাস

ক্লাস SparseApplyAdagradDa.Options SparseApplyAdagradDa এর জন্য ঐচ্ছিক বৈশিষ্ট্য

ধ্রুবক

স্ট্রিং OP_NAME এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত

পাবলিক পদ্ধতি

আউটপুট <T>
আউটপুট হিসাবে ()
টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।
স্ট্যাটিক <T TType প্রসারিত করে > SparseApplyAdagradDa <T>
তৈরি করুন ( স্কোপ স্কোপ, Operand <T> var, Operand <T> gradientAccumulator, Operand <T> gradientSquaredAccumulator, Operand <T> grad, Operand <? প্রসারিত TNumber > indices, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, Options... options)
একটি নতুন SparseApplyAdagradDa অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানার পদ্ধতি।
আউটপুট <T>
আউট ()
"var" এর মতোই।
স্ট্যাটিক SparseApplyAdagradDa.Options
ইউজ লকিং (বুলিয়ান ইউজ লকিং)

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

ধ্রুবক

সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং OP_NAME

এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত

ধ্রুবক মান: "SparseApplyAdagradDA"

পাবলিক পদ্ধতি

সর্বজনীন আউটপুট <T> হিসাবে আউটপুট ()

টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।

TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি প্রতীকী হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনাকে প্রতিনিধিত্ব করে।

পাবলিক স্ট্যাটিক স্পারসঅ্যাপ্লাইঅ্যাডাগ্রাডডা <T> তৈরি করুন ( স্কোপ স্কোপ, অপারেন্ড <T> var, অপারেন্ড <T> গ্রেডিয়েন্ট অ্যাকুমুলেটর, অপারেন্ড <T> গ্রেডিয়েন্টস্কোয়ার্ড অ্যাকুমুলেটর, অপারেন্ড <T> গ্রেড, অপারেন্ড <? প্রসারিত TNumber > সূচক, Operand , Operand > <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, বিকল্প... বিকল্প)

একটি নতুন SparseApplyAdagradDa অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানার পদ্ধতি।

পরামিতি
সুযোগ বর্তমান সুযোগ
var একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
গ্রেডিয়েন্ট অ্যাকুমুলেটর একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
গ্রেডিয়েন্টস্কোয়ার অ্যাকুমুলেটর একটি পরিবর্তনশীল() থেকে হওয়া উচিত।
স্নাতক গ্রেডিয়েন্ট।
সূচক var এবং accum-এর প্রথম মাত্রায় সূচকগুলির একটি ভেক্টর।
lr শেখার হার। একটি স্কেলার হতে হবে।
l1 L1 নিয়মিতকরণ। একটি স্কেলার হতে হবে।
l2 L2 নিয়মিতকরণ। একটি স্কেলার হতে হবে।
বিশ্বস্তর প্রশিক্ষণের ধাপ নম্বর। একটি স্কেলার হতে হবে।
বিকল্প ঐচ্ছিক বৈশিষ্ট্য মান বহন করে
রিটার্নস
  • SparseApplyAdagradDa এর একটি নতুন উদাহরণ

সর্বজনীন আউটপুট <T> আউট ()

"var" এর মতোই।

পাবলিক স্ট্যাটিক স্পারসঅ্যাপ্লাইঅ্যাডাগ্রাডডা.অপশন ইউজ লকিং (বুলিয়ান ইউজ লকিং)

পরামিতি
লকিং ব্যবহার করুন সত্য হলে, var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে।