org.tensorflow.framework.activations

ชั้นเรียน

การเปิดใช้งาน <T ขยาย TNumber > คลาสพื้นฐานนามธรรมสำหรับการเปิดใช้งาน

หมายเหตุ: ต้องตั้งค่าแอตทริบิวต์ ERROR(/#tf) ก่อนที่จะเรียกใช้วิธีการโทร

ELU <T ขยาย TFloating > หน่วยเชิงเส้นเอ็กซ์โปเนนเชียล
เอ็กซ์โพเนนเชียล <T ขยาย TFloating > ฟังก์ชันการเปิดใช้งานเอ็กซ์โปเนนเชียล
HardSigmoid <T ขยาย TFloating > การเปิดใช้งานฮาร์ดซิกมอยด์
เชิงเส้น <U ขยาย TNumber > ฟังก์ชั่นการเปิดใช้งานเชิงเส้น (พาสทรู)
ReLU <T ขยาย TNumber > การเปิดใช้งานหน่วยเชิงเส้นแบบแก้ไข (ReLU)
SELU <T ขยาย TFloating > หน่วยเชิงเส้นเอ็กซ์โพเนนเชียลแบบปรับขนาด (SELU)
Sigmoid <T ขยาย TFloating > การเปิดใช้งานซิกมอยด์
Softmax <T ขยาย TFloating > Softmax แปลงเวกเตอร์จริงเป็นเวกเตอร์ของความน่าจะเป็นแบบเด็ดขาด
Softplus <T ขยาย TFloating > ฟังก์ชั่นการเปิดใช้งาน Softplus softplus(x) = log(exp(x) + 1)
Softsign <T ขยาย TFloating > ฟังก์ชันการเปิดใช้งาน Softsign, softsign(x) = x / (abs(x) + 1)
หวด <T ขยาย TFloating > ฟังก์ชั่นการเปิดใช้งาน Swish
Tanh <T ขยาย TFloating > ฟังก์ชันการเปิดใช้งานไฮเปอร์โบลิกแทนเจนต์