org.tensorflow.framework.activations

ক্লাস

সক্রিয়করণ <T প্রসারিত TNumber > অ্যাক্টিভেশনের জন্য বিমূর্ত বেস ক্লাস

দ্রষ্টব্য: কলের পদ্ধতি চালু করার আগে ERROR(/#tf) অ্যাট্রিবিউট সেট করতে হবে।

ELU <T TFloating > প্রসারিত করে সূচকীয় রৈখিক একক।
সূচকীয় <T প্রসারিত করে TFloating > সূচকীয় সক্রিয়করণ ফাংশন।
হার্ডসিগময়েড <T টি ফ্লোটিং > প্রসারিত করে হার্ড সিগমায়েড অ্যাক্টিভেশন।
লিনিয়ার <U TNumber প্রসারিত করে > লিনিয়ার অ্যাক্টিভেশন ফাংশন (পাস-থ্রু)।
ReLU <T TNumber বাড়ায়> সংশোধিত লিনিয়ার ইউনিট (ReLU) সক্রিয়করণ।
SELU <T TFloating > প্রসারিত করে স্কেলড এক্সপোনেনশিয়াল লিনিয়ার ইউনিট (SELU)।
সিগময়েড <T TFloating > প্রসারিত করে সিগময়েড সক্রিয়করণ।
Softmax <T TFloating > প্রসারিত করে Softmax একটি বাস্তব ভেক্টরকে শ্রেণীগত সম্ভাব্যতার ভেক্টরে রূপান্তর করে।
Softplus <T TFloating > প্রসারিত করে সফটপ্লাস অ্যাক্টিভেশন ফাংশন, softplus(x) = log(exp(x) + 1)
Softsign <T TFloating > প্রসারিত করে সফ্টসাইন অ্যাক্টিভেশন ফাংশন, softsign(x) = x / (abs(x) + 1)
সুইশ <T TFloating > প্রসারিত করে সুইশ অ্যাক্টিভেশন ফাংশন।
Tanh <T TFloating > প্রসারিত করে হাইপারবোলিক ট্যানজেন্ট অ্যাক্টিভেশন ফাংশন।