このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.keras.layers.Dense

TensorFlow 1つのバージョン GitHubの上のソースを表示

ちょうどあなたの通常の密に接続されたNN層。

:から継承Layer

ノートPCで使用されます

ガイドで使用チュートリアルで使用されます

Dense実装操作: output = activation(dot(input, kernel) + bias)ここで、 activationとして渡された要素ごと活性化関数であるactivation引数、 kernel層で作成された重み行列であり、 bias作成バイアスベクトルであります層(場合にのみ適用することによりuse_biasあるTrue )。

層が(除いて一度呼び出された後に加えて、層の属性を変更することはできませんtrainable属性)。

例:

# Create a `Sequential` model and add a Dense layer as the first layer.
model = tf.keras.models.Sequential()
model.add(tf.keras.Input(shape=(16,)))
model.add(tf.keras.layers.Dense(32, activation='relu'))
# Now the model will take as input arrays of shape (None, 16)
# and output arrays of shape (None, 32).
# Note that after the first layer, you don't need to specify
# the size of the input anymore:
model.add(tf.keras.layers.Dense(32))
model.output_shape
(None, 32)

units 正の整数、出力空間の次元。
activation 使用するアクティベーション機能。何も指定しない場合、何の活性化は適用されません(すなわち活性化「線形」: a(x) = x )。
use_bias 層は、バイアスベクトルを使用するかどうかを示すブール。
kernel_initializer 初期化子kernel重み行列。
bias_initializer バイアスベクトルの初期化子。
kernel_regularizer 正則関数は、に適用されるkernel重み行列。
bias_regularizer 正則関数は、バイアスベクトルに適用されます。
activity_regularizer 正則関数は、層(その「活性化」)の出力に適用されます。
kernel_constraint 制約関数は、に適用されるkernel重み行列。
bias_constraint 制約関数は、バイアスベクトルに適用されます。

入力形状:

形状のNDテンソル: (batch_size, ..., input_dim)最も一般的な状況は、形状の2D入力あろう(batch_size, input_dim)

出力形状:

形状のNDテンソル: (batch_size, ..., units) 。例えば、形状の2D入力のために(batch_size, input_dim)出力形状だろう(batch_size, units)