Relu

পাবলিক ফাইনাল ক্লাস রেলু

সংশোধিত রৈখিক গণনা করে: `সর্বোচ্চ(বৈশিষ্ট্য, 0)`।

দেখুন: https://en.wikipedia.org/wiki/Rectifier_(neural_networks) উদাহরণ ব্যবহার: >>> tf.nn.relu([-2., 0., -0., 3.]).numpy() অ্যারে([ 0., 0., -0., 3.], dtype=float32)

ধ্রুবক

স্ট্রিং OP_NAME এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত

পাবলিক পদ্ধতি

আউটপুট <T>
আউটপুট <T>
আউটপুট হিসাবে ()
টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।
static <T TType প্রসারিত করে > Relu <T>
তৈরি করুন ( স্কোপ স্কোপ, অপারেন্ড <T> বৈশিষ্ট্য)
একটি নতুন রেলু অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।

উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি

ধ্রুবক

সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং OP_NAME

এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত

ধ্রুবক মান: "রেলু"

পাবলিক পদ্ধতি

সর্বজনীন আউটপুট <T> সক্রিয়করণ ()

সর্বজনীন আউটপুট <T> হিসাবে আউটপুট ()

টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।

TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি প্রতীকী হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনাকে প্রতিনিধিত্ব করে।

পাবলিক স্ট্যাটিক Relu <T> তৈরি করুন ( স্কোপ স্কোপ, অপারেন্ড <T> বৈশিষ্ট্য)

একটি নতুন রেলু অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।

পরামিতি
সুযোগ বর্তমান সুযোগ
রিটার্নস
  • Relu এর একটি নতুন উদাহরণ