ELU

ELU de classe pública

Unidade linear exponencial.

A unidade linear exponencial (ELU) com alpha > 0 é:

x se x > 0 e alpha * (exp(x) - 1) se x < 0 .

O hiperparâmetro ELU alpha controla o valor ao qual um ELU satura para entradas líquidas negativas. ELUs diminuem o efeito de gradiente de desaparecimento.

ELUs têm valores negativos que empurra a média das ativações para perto de zero. As ativações médias mais próximas de zero permitem um aprendizado mais rápido, pois trazem o gradiente para mais perto do gradiente natural. ELUs saturam para um valor negativo quando o argumento fica menor. Saturação significa uma pequena derivada que diminui a variação e a informação que é propagada para a próxima camada.

Exemplo de uso:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

Construtores Públicos

ELU (Ops tf)
Cria um novo ELU com alpha = ERROR(/#ALPHA_DEFAULT) .
ELU (Ops tf, alfa duplo)
Cria um novo ELU

Métodos Públicos

Operando <T>
chamada (entrada Operand <T>)
Obtém a operação de cálculo para a ativação.

Métodos herdados

Construtores Públicos

ELU pública (Ops tf)

Cria um novo ELU com alpha = ERROR(/#ALPHA_DEFAULT) .

Parâmetros
tf o TensorFlow Ops

ELU pública (Ops tf, alfa duplo)

Cria um novo ELU

Parâmetros
tf o TensorFlow Ops
alfa Um escalar, inclinação de seção negativa. Ele controla o valor ao qual uma ELU satura para entradas líquidas negativas.

Métodos Públicos

chamada pública de Operando <T> (entrada Operand <T>)

Obtém a operação de cálculo da ativação.

Parâmetros
entrada o tensor de entrada
Devoluções
  • O operando para a ativação