org.tensorflow.framework.activations

Các lớp học

Kích hoạt <T mở rộng TNumber > Lớp cơ sở trừu tượng cho Kích hoạt

Lưu ý: Thuộc tính ERROR(/#tf) phải được đặt trước khi gọi phương thức gọi.

ELU <T mở rộng TFloating > Đơn vị tuyến tính hàm mũ.
Hàm mũ <T mở rộng TFloating > Hàm kích hoạt theo cấp số nhân.
HardSigmoid <T mở rộng TFloating > Kích hoạt sigmoid cứng.
Tuyến tính <U mở rộng TNumber > Hàm kích hoạt tuyến tính (truyền qua).
ReLU <T mở rộng TNumber > Kích hoạt Đơn vị Tuyến tính Chỉnh lưu (ReLU).
SELU <T mở rộng TFloating > Đơn vị tuyến tính hàm mũ theo tỷ lệ (SELU).
Sigmoid <T mở rộng TFloating > Kích hoạt sigmoid.
Softmax <T mở rộng TFloating > Softmax chuyển đổi một vectơ thực thành một vectơ có xác suất phân loại.
Softplus <T mở rộng TFloating > Hàm kích hoạt Softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T mở rộng TFloating > Hàm kích hoạt softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T mở rộng TFloating > Chức năng kích hoạt Swish.
Tính <T kéo dài TFloating > Hàm kích hoạt tiếp tuyến hyperbol.