ReLU

classe pública ReLU

Ativação da unidade linear retificada (ReLU).

Com valores padrão, isso retorna a ativação ReLU padrão: max(x, 0) , o máximo do elemento a 0 e o tensor de entrada.

A modificação dos parâmetros padrão permite que você use limites diferentes de zero, altere o valor máximo da ativação e use um múltiplo diferente de zero da entrada para valores abaixo do limite.

Por exemplo:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

Constantes

flutuador ALPHA_DEFAULT
flutuador MAX_VALUE_DEFAULT
flutuador THRESHOLD_DEFAULT

Construtores Públicos

ReLU (Ops tf)
Cria um novo ReLU com alpha = ALPHA_DEFAULT , maxValue = MAX_VALUE_DEFAULT , threshold = THRESHOLD_DEFAULT ,
ReLU (Ops tf, float alfa, float maxValue, limite de flutuação)
Cria um novo ReLU

Métodos Públicos

Operando <T>
chamada (entrada Operando <T>)
Obtém a operação de cálculo da ativação.

Métodos herdados

Constantes

flutuante público estático final ALPHA_DEFAULT

Valor constante: 0,0

flutuação final estática pública MAX_VALUE_DEFAULT

Valor constante: NaN

flutuante público estático final THRESHOLD_DEFAULT

Valor constante: 0,0

Construtores Públicos

ReLU público (Ops tf)

Cria um novo ReLU com alpha = ALPHA_DEFAULT , maxValue = MAX_VALUE_DEFAULT , threshold = THRESHOLD_DEFAULT ,

Parâmetros
tf o TensorFlow Ops

ReLU público (Ops tf, float alfa, float maxValue, limite de flutuação)

Cria um novo ReLU

Parâmetros
tf o TensorFlow Ops
alfa rege a inclinação para valores inferiores ao limite.
Valor máximo define o limite de saturação (o maior valor que a função retornará).
limiar o valor limite da função de ativação abaixo do qual os valores serão amortecidos ou ajustados para zero.

Métodos Públicos

chamada pública de Operando <T> (entrada Operand <T>)

Obtém a operação de cálculo para a ativação.

Parâmetros
entrada o tensor de entrada
Devoluções
  • O operando para a ativação