org.tensorflow.framework.activations

Clases

Activación <T extiende TNumber > Clase base abstracta para activaciones

Nota: El atributo ERROR(/#tf) debe establecerse antes de invocar el método de llamada.

ELU <T extiende TFloating > Unidad lineal exponencial.
Exponencial <T extiende TFloating > Función de activación exponencial.
HardSigmoid <T extiende TFloating > Activación sigmoidea dura.
Lineal <U extiende TNumber > Función de activación lineal (pass-through).
ReLU <T extiende TNumber > Activación de Unidad Lineal Rectificada (ReLU).
SELU <T extiende TFloating > Unidad lineal exponencial escalada (SELU).
Sigmoide <T extiende TFloating > Activación sigmoidea.
Softmax <T extiende TFloating > Softmax convierte un vector real en un vector de probabilidades categóricas.
Softplus <T extiende TFloating > Función de activación de Softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T extiende TFloating > Función de activación de Softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T extiende TFloating > Función de activación por chasquido.
Tanh <T extiende TFloating > Función de activación tangente hiperbólica.