Unidade linear exponencial.
A unidade linear exponencial (ELU) com alpha > 0
é:
x
se x > 0
e alpha * (exp(x) - 1)
se x < 0
.
O hiperparâmetro ELU alpha
controla o valor ao qual um ELU satura para entradas líquidas negativas. ELUs diminuem o efeito de gradiente de desaparecimento.
ELUs têm valores negativos que empurra a média das ativações para perto de zero. As ativações médias mais próximas de zero permitem um aprendizado mais rápido, pois trazem o gradiente para mais perto do gradiente natural. ELUs saturam para um valor negativo quando o argumento fica menor. Saturação significa uma pequena derivada que diminui a variação e a informação que é propagada para a próxima camada.
Exemplo de uso:
Operand<TFloat32> input = ...; ELU<TFloat32> elu = new ELU<>(tf, 2.0f); Operand<TFloat32> result = elu.call(input);
Construtores Públicos
ELU (Ops tf) Cria um novo ELU com alpha = ERROR(/#ALPHA_DEFAULT) . | |
ELU (Ops tf, alfa duplo) Cria um novo ELU |
Métodos Públicos
Operando <T> |
Métodos herdados
Construtores Públicos
ELU pública (Ops tf)
Cria um novo ELU com alpha = ERROR(/#ALPHA_DEFAULT)
.
Parâmetros
tf | o TensorFlow Ops |
---|
ELU pública (Ops tf, alfa duplo)
Cria um novo ELU
Parâmetros
tf | o TensorFlow Ops |
---|---|
alfa | Um escalar, inclinação de seção negativa. Ele controla o valor ao qual uma ELU satura para entradas líquidas negativas. |