Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Módulo: tf.keras.activations

TensorFlow 1 versión

Las funciones integradas de activación.

funciones

deserialize(...) : Devuelve la función de activación dado un identificador de cadena.

elu(...) : Unidad lineal exponencial.

exponential(...) : la función de activación exponencial.

get(...) : función devuelve.

hard_sigmoid(...) : Hard sigmoide función de activación.

linear(...) : función de activación lineal (paso a través).

relu(...) : Se aplica la función de activación de la unidad lineal rectificada.

selu(...) : Scaled Unidad Lineal Exponencial (SELU).

serialize(...) : Devuelve el identificador de cadena de una función de activación.

sigmoid(...) : función de activación sigmoide, sigmoid(x) = 1 / (1 + exp(-x)) .

softmax(...) : Softmax convierte un vector real a un vector de probabilidades categóricas.

softplus(...) : función de activación SoftPlus, softplus(x) = log(exp(x) + 1) .

softsign(...) : función de activación Softsign, softsign(x) = x / (abs(x) + 1) .

swish(...) : la función de activación del chasquido, swish(x) = x * sigmoid(x) .

tanh(...) : la función de activación de tangente hiperbólica.