このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.compat.v1.keras.layers.LSTMCell

GitHubの上のソースを表示

LSTM層のための細胞クラス。

:から継承Layer

units 正の整数、出力空間の次元。
activation 使用するアクティベーション機能。デフォルト:双曲線正接( tanh )。あなたは合格しない場合はNone 、何の活性化は適用されません(すなわち活性化"線形": a(x) = x )。
recurrent_activation アクティベーション機能は、再発のステップに使用します。デフォルト:ハードシグモイド( hard_sigmoid )。あなたは合格しない場合はNone 、何の活性化は適用されません(すなわち活性化"線形": a(x) = x )。
use_bias 層は、バイアスベクトルを使用するかどうかを示すブール。
kernel_initializer 以下のための初期kernelの入力の線形変換のために使用される重み行列、。
recurrent_initializer 初期化子recurrent_kernel再発状態の線形変換のために使用される重み行列、。
bias_initializer バイアスベクトルの初期化子。
unit_forget_bias ブール。 Trueの場合、初期化時に忘れてゲートのバイアスに1を追加します。これをtrueに設定すると、強制されますbias_initializer="zeros" 。これはお勧めですJozefowiczら、2015
kernel_regularizer 正則関数は、に適用されるkernel重み行列。
recurrent_regularizer 正則関数を印加recurrent_kernel重み行列。
bias_regularizer 正則関数は、バイアスベクトルに適用されます。
kernel_constraint 制約関数は、に適用されるkernel重み行列。
recurrent_constraint 制約関数を印加recurrent_kernel重み行列。
bias_constraint 制約関数は、バイアスベクトルに適用されます。
dropout 入力の線形変換のためにドロップする単位の0と1の画分との間のフロート。
recurrent_dropout 再発性の状態の線形変換のためにドロップする単位の0と1の画分との間のフロート。
implementation 実装モード、1または2のいずれかのモード1は、それらは、より少ない、より大きな操作にモード2意志バッチ一方、小さいドット製品および追加のより大きな数として事業を構築します。これらのモードは、異なるハードウェア上やアプリケーションごとに異なるパフォーマンスプロファイルを持つことになります。

引数を呼び出します。

  • inputs :A 2Dテンソル。
  • states :前の時間ステップに対応する状態テンソルの一覧。
  • training :Pythonは層がトレーニングモードまたは推論モードで動作するかどうかを示すブール値。場合にのみ関連するdropoutrecurrent_dropout使用されています。

メソッド

get_dropout_mask_for_cell

ソースを表示

RNNセルの入力のためのドロップアウトのマスクを取得します。

既存のキャッシュされたマスクがない場合は、コンテキストに基づいてマスクを作成します。新しいマスクが生成されると、それは細胞内のキャッシュを更新します。

引数
inputs その形状入力テンソルは、ドロップアウトマスクを生成するために使用されるであろう。
training そのトレーニングモードでは、ドロップアウトが非トレーニングモードでは無視されるかどうかをブールテンソル、。
count マスクが生成されますどのように多くのドロップアウトのInt、。これは、一緒に融合内部重みを持つセルに便利です。

戻り値
コンテキストに基づいてマスクを生成したり、キャッシュされたマスクテンソルのリスト、。

get_initial_state

ソースを表示

get_recurrent_dropout_mask_for_cell

ソースを表示

RNN電池用再発ドロップアウトマスクを取得します。

既存のキャッシュされたマスクがない場合は、コンテキストに基づいてマスクを作成します。新しいマスクが生成されると、それは細胞内のキャッシュを更新します。

引数
inputs その形状入力テンソルは、ドロップアウトマスクを生成するために使用されるであろう。
training そのトレーニングモードでは、ドロップアウトが非トレーニングモードでは無視されるかどうかをブールテンソル、。
count マスクが生成されますどのように多くのドロップアウトのInt、。これは、一緒に融合内部重みを持つセルに便利です。

戻り値
コンテキストに基づいてマスクを生成したり、キャッシュされたマスクテンソルのリスト、。

reset_dropout_mask

ソースを表示

もしあれば、キャッシュされたドロップアウト・マスクをリセットします。

キャッシュされたマスクは、()cell.callを呼び出す前にクリアされるように、RNN層はこのことで呼び出す()メソッドを呼び出すためにため、これは重要です。マスクは、同じバッチ内のタイムステップ間でキャッシュされるべきではなく、バッチ間でキャッシュされるべきではありません。それ以外の場合は、バッチ内のデータの特定のインデックスに対する不当なバイアスをご紹介します。

reset_recurrent_dropout_mask

ソースを表示

もしあれば、キャッシュされた再発ドロップアウト・マスクをリセットします。

キャッシュされたマスクは、()cell.callを呼び出す前にクリアされるように、RNN層はこのことで呼び出す()メソッドを呼び出すためにため、これは重要です。マスクは、同じバッチ内のタイムステップ間でキャッシュされるべきではなく、バッチ間でキャッシュされるべきではありません。それ以外の場合は、バッチ内のデータの特定のインデックスに対する不当なバイアスをご紹介します。