SELU

clase pública SELU

Unidad lineal exponencial escalada (SELU).

La función de activación de la Unidad Lineal Exponencial Escalada (SELU) se define como:

  • if x > 0: return scale * x
  • if x < 0: return scale * alpha * (exp(x) - 1)

donde alpha y scale son constantes predefinidas ( alpha=1.67326324 y scale=1.05070098 ).

Básicamente, la función de activación SELU multiplica scale (> 1) con la salida de la función elu para garantizar una pendiente mayor que uno para entradas positivas.

Los valores de alpha y scale se eligen de modo que la media y la varianza de las entradas se conserven entre dos capas consecutivas siempre que los pesos se inicialicen correctamente (consulte LeCun con distribución normal) y el número de unidades de entrada sea "suficientemente grande".

Notas: Para utilizar junto con el inicializador LeCun con Distribución Normal.

Ver también

Constructores Públicos

SELU (Ops tf)
Crea una activación de unidad lineal exponencial escalada (SELU).

Métodos públicos

Operando <T>
llamada (entrada de operando <T>)
Obtiene la operación de cálculo para la activación.

Métodos heredados

Constructores Públicos

SELU público (Ops tf)

Crea una activación de unidad lineal exponencial escalada (SELU).

Parámetros
tf las operaciones de TensorFlow

Métodos públicos

Llamada pública de operando <T> (entrada de operando <T>)

Obtiene la operación de cálculo para la activación.

Parámetros
aporte el tensor de entrada
Devoluciones
  • El operando para la activación.