SparseTensorからTPUEmbedding入力インデックスをエンキューする操作。
このOpは、embedding_lookup_sparse()を使用するコードの移植を容易にしますが、トレーニングステップごとに許可されるEnqueueTPUEmbeddingSparseBatch Opは1つだけなので、embedding_lookup_sparse()へのSparseTensor引数のPython前処理が必要です。
3つの入力リストの対応する位置にあるテンソルは同じ形状である必要があります。つまり、ランク1で、dim_size()は、対応するtable_idによって記述されるテーブルへのルックアップの総数に等しくなります。
ネストされたクラス
クラス | EnqueueTPUEmbeddingSparseBatch.Options | EnqueueTPUEmbeddingSparseBatch オプションの属性 |
パブリックメソッド
静的EnqueueTPUEmbeddingSparseBatch.Options | コンバイナー(List <String>コンバイナー) |
static <T extends Number、U extends Number、V extends Number> EnqueueTPUEmbeddingSparseBatch | |
静的EnqueueTPUEmbeddingSparseBatch.Options | deviceOrdinal (長いdeviceOrdinal) |
継承されたメソッド
パブリックメソッド
public static EnqueueTPUEmbeddingSparseBatch.Optionsコンバイナー(List <String>コンバイナー)
パラメーター
コンバイナー | 文字列スカラーのリスト。各埋め込みテーブルに1つずつあり、加重合計後に埋め込みアクティベーションを正規化する方法を指定します。サポートされているコンバイナーは、「mean」、「sum」、または「sqrtn」です。 'mean'の場合は重みの合計を0にするか、 'sqrtn'の場合は重みの2乗の合計を0にすることは無効です。コンバイナが渡されない場合、デフォルトではすべてのテーブルに「sum」が使用されます。 |
---|
public static EnqueueTPUEmbeddingSparseBatch create (スコープスコープ、Iterable <オペランド<T >> sampleIndices、Iterable <オペランド<U >> embeddingIndices、Iterable <オペランド<V >> aggregationWeights、オペランド<String> modeOverride、 Options ...オプション)
新しいEnqueueTPUEmbeddingSparseBatch操作をラップするクラスを作成するファクトリメソッド。
パラメーター
範囲 | 現在のスコープ |
---|---|
sampleIndices | 対応するembedding_indices値とaggregation_weights値が属するトレーニングの例と機能を指定するランク1テンソルのリスト。 sample_indices [i]はb * nf + fと等しくなければなりません。ここで、nfは対応するテーブルの特徴の数、fは[0、nf)、bは[0、バッチサイズ)です。 |
埋め込みインデックス | ランク1テンソルのリスト、埋め込みテーブルへのインデックス。 |
AggregationWeights | サンプルごと、つまり(トレーニング例、機能)ごとに集計重みを含むランク1テンソルのリスト。 |
modeOverride | TPUEmbeddingConfigurationで指定されたモードをオーバーライドする文字列入力。サポートされている値は、{'unspecified'、 'inference'、 'training'、 'backward_pass_only'}です。 'unspecified'に設定すると、TPUEmbeddingConfigurationで設定されたモードが使用されます。それ以外の場合は、mode_overrideが使用されます。 |
オプション | オプションの属性値を運ぶ |
戻り値
- EnqueueTPUEmbeddingSparseBatchの新しいインスタンス
public static EnqueueTPUEmbeddingSparseBatch.Options deviceOrdinal (Long deviceOrdinal)
パラメーター
deviceOrdinal | 使用するTPUデバイス。 0以上で、ノードが配置されているタスクのTPUコアの数より少ない必要があります。 |
---|