Relu

เรลู คลาสสุดท้ายสาธารณะ

คำนวณเชิงเส้นที่แก้ไขแล้ว: `สูงสุด (ฟีเจอร์, 0)`

ดู: https://en.wikipedia.org/wiki/Rectifier_(neural_networks) ตัวอย่างการใช้งาน: >>> tf.nn.relu([-2., 0., -0., 3.]).numpy() อาร์เรย์ ([ 0., 0., -0., 3.], dtype=float32)

ค่าคงที่

สตริง OP_NAME ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

วิธีการสาธารณะ

เอาท์พุต <T>
เอาท์พุต <T>
เป็นเอาท์พุต ()
ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์
คงที่ <T ขยาย TType > Relu <T>
สร้าง ( ขอบเขต ขอบเขต คุณสมบัติ Operand <T>)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ Relu ใหม่

วิธีการสืบทอด

ค่าคงที่

สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME

ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

ค่าคงที่: "Relu"

วิธีการสาธารณะ

การเปิดใช้งาน เอาต์พุต สาธารณะ <T> ()

เอาท์ พุท สาธารณะ <T> asOutput ()

ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์

อินพุตสำหรับการดำเนินการ TensorFlow คือเอาต์พุตของการดำเนินการ TensorFlow อื่น วิธีการนี้ใช้เพื่อรับหมายเลขอ้างอิงสัญลักษณ์ที่แสดงถึงการคำนวณอินพุต

สร้าง Relu <T> คงที่สาธารณะ ( ขอบเขต ขอบเขตคุณสมบัติ Operand <T>)

วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ Relu ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
การส่งคืน
  • ตัวอย่างใหม่ของ Relu