ReLU

পাবলিক ক্লাস ReLU

সংশোধিত লিনিয়ার ইউনিট (ReLU) সক্রিয়করণ।

ডিফল্ট মান সহ, এটি স্ট্যান্ডার্ড ReLU অ্যাক্টিভেশন প্রদান করে: max(x, 0) , উপাদান অনুসারে সর্বাধিক 0 এবং ইনপুট টেনসর।

ডিফল্ট পরামিতিগুলি পরিবর্তন করা আপনাকে অ-শূন্য থ্রেশহোল্ড ব্যবহার করতে, অ্যাক্টিভেশনের সর্বাধিক মান পরিবর্তন করতে এবং থ্রেশহোল্ডের নীচে মানের জন্য ইনপুটের একটি শূন্য নয় মাল্টিপল ব্যবহার করতে দেয়।

যেমন:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

ধ্রুবক

ভাসা ALPHA_DEFAULT
ভাসা MAX_VALUE_DEFAULT
ভাসা THRESHOLD_DEFAULT

পাবলিক কনস্ট্রাক্টর

ReLU (Ops tf)
আলফা= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , থ্রেশহোল্ড= THRESHOLD_DEFAULT , সহ একটি নতুন ReLU তৈরি করে
ReLU (Ops tf, float alpha, float maxValue, float threshold)
একটি নতুন ReLU তৈরি করে

পাবলিক পদ্ধতি

অপারেন্ড <T>
কল ( অপারেন্ড <T> ইনপুট)
সক্রিয়করণের জন্য গণনা অপারেশন পায়।

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

ধ্রুবক

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট ALPHA_DEFAULT

ধ্রুবক মান: 0.0

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট MAX_VALUE_DEFAULT

ধ্রুবক মান: NaN

পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট THRESHOLD_DEFAULT

ধ্রুবক মান: 0.0

পাবলিক কনস্ট্রাক্টর

পাবলিক ReLU (Ops tf)

আলফা= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , থ্রেশহোল্ড= THRESHOLD_DEFAULT , সহ একটি নতুন ReLU তৈরি করে

পরামিতি
tf টেনসরফ্লো অপস

পাবলিক ReLU (Ops tf, float alpha, float maxValue, float threshold)

একটি নতুন ReLU তৈরি করে

পরামিতি
tf টেনসরফ্লো অপস
আলফা থ্রেশহোল্ডের চেয়ে কম মানের জন্য ঢাল নিয়ন্ত্রণ করে।
maxValue স্যাচুরেশন থ্রেশহোল্ড সেট করে (ফাংশনটি ফেরত দেবে সবচেয়ে বড় মান)।
প্রান্তিক অ্যাক্টিভেশন ফাংশনের থ্রেশহোল্ড মান যার নীচে মানগুলি স্যাঁতসেঁতে বা শূন্যে সেট করা হবে৷

পাবলিক পদ্ধতি

সর্বজনীন অপারেন্ড <T> কল ( Operand <T> ইনপুট)

সক্রিয়করণের জন্য গণনা অপারেশন পায়।

পরামিতি
ইনপুট ইনপুট টেনসর
রিটার্নস
  • সক্রিয়করণের জন্য অপারেন্ড