このページは Cloud Translation API によって翻訳されました。
Switch to English

モジュール:tf.keras.activations

TensorFlow 1つのバージョン

内蔵の活性化関数。

関数

deserialize(...) :戻り値の活性化関数は、文字列の識別子を与えられました。

elu(...)指数リニアユニット。

exponential(...) :指数活性化関数を。

get(...) :戻り値が機能します。

hard_sigmoid(...)ハードシグモイド活性化関数。

linear(...)線形活性化機能(パススルー)。

relu(...)整流された線状部の活性化関数を適用します。

selu(...)スケーリング指数リニアユニット(SELU)。

serialize(...)活性化関数の文字列識別子を返します。

sigmoid(...)シグモイド活性化関数、 sigmoid(x) = 1 / (1 + exp(-x))

softmax(...)ソフトマックスは、カテゴリ確率のベクトルに実ベクトルに変換します。

softplus(...) :Softplus活性化機能、 softplus(x) = log(exp(x) + 1)

softsign(...)活性化機能Softsign、 softsign(x) = x / (abs(x) + 1)

swish(...)振る活性化機能、 swish(x) = x * sigmoid(x)

tanh(...)双曲線正接活性化機能。