SELU

পাবলিক ক্লাস SELU

স্কেলড এক্সপোনেনশিয়াল লিনিয়ার ইউনিট (SELU)।

স্কেলড এক্সপোনেনশিয়াল লিনিয়ার ইউনিট (SELU) অ্যাক্টিভেশন ফাংশনটি সংজ্ঞায়িত করা হয়েছে:

  • if x > 0: return scale * x
  • if x < 0: return scale * alpha * (exp(x) - 1)

যেখানে alpha এবং scale পূর্ব-নির্ধারিত ধ্রুবক ( alpha=1.67326324 এবং scale=1.05070098 )।

মূলত, SELU অ্যাক্টিভেশন ফাংশন ইলু ফাংশনের আউটপুটের সাথে scale (> 1) গুণ করে যাতে ইতিবাচক ইনপুটগুলির জন্য একটির চেয়ে বড় ঢাল নিশ্চিত করা যায়।

alpha এবং scale মানগুলি বেছে নেওয়া হয়েছে যাতে ইনপুটগুলির গড় এবং পার্থক্য দুটি পরপর স্তরের মধ্যে সংরক্ষিত থাকে যতক্ষণ না ওজন সঠিকভাবে শুরু হয় (সাধারণ বন্টনের সাথে LeCun দেখুন) এবং ইনপুট ইউনিটের সংখ্যা "যথেষ্ট বড়"

দ্রষ্টব্য: সাধারণ বিতরণ সহ LeCun ইনিশিয়ালাইজারের সাথে একসাথে ব্যবহার করতে হবে।

আরো দেখুন

পাবলিক কনস্ট্রাক্টর

SELU (Ops tf)
একটি স্কেলড এক্সপোনেনশিয়াল লিনিয়ার ইউনিট (SELU) অ্যাক্টিভেশন তৈরি করে।

পাবলিক পদ্ধতি

অপারেন্ড <T>
কল ( অপারেন্ড <T> ইনপুট)
সক্রিয়করণের জন্য গণনা অপারেশন পায়।

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

পাবলিক কনস্ট্রাক্টর

পাবলিক SELU (Ops tf)

একটি স্কেলড এক্সপোনেনশিয়াল লিনিয়ার ইউনিট (SELU) অ্যাক্টিভেশন তৈরি করে।

পরামিতি
tf টেনসরফ্লো অপস

পাবলিক পদ্ধতি

সর্বজনীন অপারেন্ড <T> কল ( Operand <T> ইনপুট)

সক্রিয়করণের জন্য গণনা অপারেশন পায়।

পরামিতি
ইনপুট ইনপুট টেনসর
রিটার্নস
  • সক্রিয়করণের জন্য অপারেন্ড