SELU

classe pública SELU

Unidade linear exponencial com escala (SELU).

A função de ativação da Unidade Linear Exponencial com Escala (SELU) é definida como:

  • if x > 0: return scale * x
  • if x < 0: return scale * alpha * (exp(x) - 1)

onde alpha e scale são constantes predefinidas ( alpha=1.67326324 e scale=1.05070098 ).

Basicamente, a função de ativação SELU multiplica a scale (> 1) com a saída da função elu para garantir uma inclinação maior que um para entradas positivas.

Os valores de alpha e scale são escolhidos de forma que a média e a variância das entradas sejam preservadas entre duas camadas consecutivas, desde que os pesos sejam inicializados corretamente (ver LeCun com distribuição normal) e o número de unidades de entrada seja "grande o suficiente"

Observações: Para ser usado junto com o inicializador LeCun com distribuição normal.

Veja também

Construtores Públicos

SELU (Ops tf)
Cria uma ativação da Unidade Linear Exponencial em Escala (SELU).

Métodos Públicos

Operando <T>
chamada (entrada Operand <T>)
Obtém a operação de cálculo da ativação.

Métodos herdados

Construtores Públicos

SELU público (Ops tf)

Cria uma ativação da Unidade Linear Exponencial em Escala (SELU).

Parâmetros
tf o TensorFlow Ops

Métodos Públicos

chamada pública de Operando <T> (entrada Operand <T>)

Obtém a operação de cálculo da ativação.

Parâmetros
entrada o tensor de entrada
Devoluções
  • O operando para a ativação