Selu

পাবলিক ফাইনাল ক্লাস সেলু

স্কেল করা সূচকীয় রৈখিক গণনা করে: `স্কেল * আলফা * (exp(বৈশিষ্ট্য) - 1)`

যদি < 0, `স্কেল * বৈশিষ্ট্য` অন্যথায়।

`initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')` এর সাথে একসাথে ব্যবহার করতে হবে। সঠিক ড্রপআউটের জন্য, `tf.contrib.nn.alpha_dropout` ব্যবহার করুন।

দেখুন [সেলফ-নরমালাইজিং নিউরাল নেটওয়ার্ক](https://arxiv.org/abs/1706.02515)

ধ্রুবক

স্ট্রিং OP_NAME এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত

পাবলিক পদ্ধতি

আউটপুট <T>
আউটপুট <T>
আউটপুট হিসাবে ()
টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।
স্ট্যাটিক <T TNumber প্রসারিত করে > Selu <T>
তৈরি করুন ( স্কোপ স্কোপ, অপারেন্ড <T> বৈশিষ্ট্য)
একটি নতুন Selu অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

ধ্রুবক

সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং OP_NAME

এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত

ধ্রুবক মান: "সেলু"

পাবলিক পদ্ধতি

সর্বজনীন আউটপুট <T> সক্রিয়করণ ()

সর্বজনীন আউটপুট <T> হিসাবে আউটপুট ()

টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।

TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি প্রতীকী হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনাকে প্রতিনিধিত্ব করে।

পাবলিক স্ট্যাটিক সেলু <T> তৈরি করুন ( স্কোপ স্কোপ, অপারেন্ড <T> বৈশিষ্ট্য)

একটি নতুন Selu অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।

পরামিতি
সুযোগ বর্তমান সুযোগ
রিটার্নস
  • সেলুর একটি নতুন উদাহরণ