org.tensorflow.framework.activations

Aulas

Ativação <T estende TNumber > Classe base abstrata para ativações

Nota: O atributo ERROR(/#tf) deve ser definido antes de invocar o método de chamada.

ELU <T estende TFloating > Unidade linear exponencial.
Exponencial <T estende TFloating > Função de ativação exponencial.
HardSigmoid <T estende TFloating > Ativação sigmóide forte.
Linear <U estende TNumber > Função de ativação linear (pass-through).
ReLU <T estende TNumber > Ativação da Unidade Linear Retificada (ReLU).
SELU <T estende TFloating > Unidade Linear Exponencial Escalada (SELU).
Sigmóide <T estende TFloating > Ativação sigmóide.
Softmax <T estende TFloating > Softmax converte um vetor real em um vetor de probabilidades categóricas.
Softplus <T estende TFloating > Função de ativação Softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T estende TFloating > Função de ativação do softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T estende TFloating > Função de ativação swish.
Tanh <T estende TFloating > Função de ativação da tangente hiperbólica.