SELU

clase pública SELU

Unidad lineal exponencial escalada (SELU).

La función de activación de la unidad lineal exponencial escalada (SELU) se define como:

  • if x > 0: return scale * x
  • if x < 0: return scale * alpha * (exp(x) - 1)

donde alpha y scale son constantes predefinidas ( alpha=1.67326324 y scale=1.05070098 ).

Básicamente, la función de activación SELU multiplica la scale (> 1) con la salida de la función elu para asegurar una pendiente mayor que uno para entradas positivas.

Los valores de alpha y scale se eligen de modo que la media y la varianza de las entradas se conserven entre dos capas consecutivas siempre que los pesos se inicialicen correctamente (ver LeCun con distribución normal) y el número de unidades de entrada sea "suficientemente grande"

Notas: Para usar junto con el inicializador LeCun con distribución normal.

Ver también

Constructores públicos

SELU (Operaciones tf)
Crea una activación de Unidad lineal exponencial escalada (SELU).

Métodos públicos

Operando <T>
llamada (entrada de operando <T>)
Obtiene la operación de cálculo para la activación.

Métodos heredados

Constructores públicos

SELU pública (Ops tf)

Crea una activación de Unidad lineal exponencial escalada (SELU).

Parámetros
tf las operaciones de TensorFlow

Métodos públicos

pública operando <T> llamada ( Operando <T> de entrada)

Obtiene la operación de cálculo para la activación.

Parámetros
aporte el tensor de entrada
Devoluciones
  • El operando para la activación