Clases
| Activación <T extiende TNumber > | Clase base abstracta para activaciones Nota: El atributo |
| ELU <T extiende TFloating > | Unidad lineal exponencial. |
| Exponencial <T extiende TF flotante > | Función de activación exponencial. |
| HardSigmoid <T extiende TF flotante > | Activación sigmoidea dura. |
| Lineal <U extiende TNumber > | Función de activación lineal (pass-through). |
| ReLU <T extiende TNumber > | Activación de unidad lineal rectificada (ReLU). |
| SELU <T extiende TFloating > | Unidad lineal exponencial escalada (SELU). |
| Sigmoide <T extiende TF flotante > | Activación sigmoidea. |
| Softmax <T extiende TFloating > | Softmax convierte un vector real en un vector de probabilidades categóricas. |
| Softplus <T extiende TFloating > | Función de activación softplus, softplus(x) = log(exp(x) + 1) . |
| Softsign <T extiende TFloating > | Función de activación de softsign, softsign(x) = x / (abs(x) + 1) . |
| Swish <T extiende TF flotante > | Función de activación swish. |
| Tanh <T extiende TF flotante > | Función de activación de la tangente hiperbólica. |