このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.keras.initializers.LecunNormal

GitHubの上のソースを表示

通常の初期化子をLecun。

:から継承VarianceScaling

また、ショートカット機能を介して利用可能tf.keras.initializers.lecun_normal

初期化子は、あなたが初期化される変数の形状とDTYPEを知らなくても、初期化子オブジェクトでエンコードされた初期化戦略を、あらかじめ指定することができます。

切断正規分布からのサンプルは、0を中心に描画stddev = sqrt(1 / fan_in)ここfan_in重量テンソルにおける入力ユニットの数です。

例:

# Standalone usage:
initializer = tf.keras.initializers.LecunNormal()
values = initializer(shape=(2, 2))
# Usage in a Keras layer:
initializer = tf.keras.initializers.LecunNormal()
layer = tf.keras.layers.Dense(3, kernel_initializer=initializer)

seed Pythonの整数。乱数発生器をシードするために使用します。

参考文献:

メソッド

from_config

ソースを表示

設定の辞書から初期化子をインスタンス化します。

例:

 initializer = RandomUniform(-1, 1)
config = initializer.get_config()
initializer = RandomUniform.from_config(config)
 

引数
config A Pythonの辞書。それは、典型的には、出力されますget_config

戻り値
初期化インスタンス。

get_config

ソースを表示

JSONシリアライズ辞書として初期化子の構成を返します。

戻り値
A JSONシリアライズPythonの辞書。

__call__

ソースを表示

イニシャライザで指定された初期化さテンソルオブジェクトを返します。

引数
shape テンソルの形状。
dtype テンソルのオプションDTYPE。唯一の浮動小数点型がサポートされています。指定されていない場合は、 tf.keras.backend.floatx()これまで、デフォルト、使用されているfloat32 (経由して、あなたがそうでなければ、それを構成していない限りtf.keras.backend.set_floatx(float_dtype)