Relu

lớp cuối cùng công khai Relu

Tính toán tuyến tính đã chỉnh lưu: `max(features, 0)`.

Xem: https://en.wikipedia.org/wiki/Rectifier_(neural_networks) Cách sử dụng ví dụ: >>> tf.nn.relu([-2., 0., -0., 3.]).numpy() mảng([ 0., 0., -0., 3.], dtype=float32)

Hằng số

Sợi dây OP_NAME Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Phương pháp công khai

Đầu ra <T>
Đầu ra <T>
asOutput ()
Trả về tay cầm tượng trưng của tensor.
tĩnh <T mở rộng TType > Relu <T>
tạo ( Phạm vi phạm vi , tính năng Toán hạng <T>)
Phương thức xuất xưởng để tạo một lớp bao bọc một hoạt động Relu mới.

Phương pháp kế thừa

Hằng số

Chuỗi cuối cùng tĩnh công khai OP_NAME

Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Giá trị không đổi: "Relu"

Phương pháp công khai

Kích hoạt đầu ra công khai <T> ()

Đầu ra công khai <T> asOutput ()

Trả về tay cầm tượng trưng của tensor.

Đầu vào của các hoạt động TensorFlow là đầu ra của một hoạt động TensorFlow khác. Phương pháp này được sử dụng để thu được một thẻ điều khiển mang tính biểu tượng đại diện cho việc tính toán đầu vào.

public static Relu <T> tạo (Phạm vi phạm vi, tính năng Toán hạng <T>)

Phương thức xuất xưởng để tạo một lớp bao bọc một hoạt động Relu mới.

Thông số
phạm vi phạm vi hiện tại
Trả lại
  • một phiên bản mới của Relu