org.tensorflow.op.train

クラス

アキュムレータApplyGradient指定されたアキュムレータに勾配を適用します。
アキュムレータNumAccumulated指定されたアキュムレータに集約された勾配の数を返します。
アキュムレータセットグローバルステップアキュムレータを global_step の新しい値で更新します。
AccumulatorTakeGradient <T extends TType >指定された ConditionalAccumulator の平均勾配を抽出します。
applyAdadelta <T extends TType > adadelta スキームに従って「*var」を更新します。
Adadelta.Options の適用ApplyAdadeltaのオプションの属性
applyAdagrad <T はTTypeを拡張 > adagrad スキームに従って「*var」を更新します。
Adagrad.オプションの適用ApplyAdagradのオプションの属性
applyAdagradDa <T はTTypeを拡張 >近位の adagrad スキームに従って「*var」を更新します。
AdagradDa.Options の適用ApplyAdagradDaのオプションの属性
applyAdagradV2 <T はTTypeを拡張 > adagrad スキームに従って「*var」を更新します。
適用AdagradV2.オプションApplyAdagradV2のオプションの属性
applyAdam <T extends TType > Adam アルゴリズムに従って「*var」を更新します。
Adam.Options の適用ApplyAdamのオプションの属性
applyAdaMax <T はTTypeを拡張 > AdaMax アルゴリズムに従って「*var」を更新します。
AdaMax.Options の適用ApplyAdaMaxのオプションの属性
applyAddSign <T はTTypeを拡張 > AddSign の更新に従って「*var」を更新します。
applyAddSign.Options ApplyAddSignのオプションの属性
applyCenteredRmsProp <T はTTypeを拡張 >中心の RMSProp アルゴリズムに従って「*var」を更新します。
applyCenteredRmsProp.Options ApplyCenteredRmsPropのオプションの属性
applyFtrl <T はTTypeを拡張 > Ftrl-proximal スキームに従って「*var」を更新します。
適用Ftrl.オプションApplyFtrlのオプションの属性
applyGradientDescent <T extends TType > '*var' から 'alpha' * 'delta' を減算して更新します。
ApplyGradientDescent.Options ApplyGradientDescentのオプションの属性
applyMomentum <T はTTypeを拡張 >運動量スキームに従って「*var」を更新します。
モメンタムの適用オプションApplyMomentumのオプションの属性
applyPowerSign <T はTTypeを拡張 > AddSign の更新に従って「*var」を更新します。
applyPowerSign.Options ApplyPowerSignのオプションの属性
applyProximalAdagrad <T はTTypeを拡張 > Adagrad 学習率の FOBOS に従って「*var」と「*accum」を更新します。
applyProximalAdagrad.Options ApplyProximalAdagradのオプションの属性
applyProximalGradientDescent <T extends TType > 「*var」を固定学習率の FOBOS アルゴリズムとして更新します。
applyProximalGradientDescent.Options ApplyProximalGradientDescentのオプションの属性
applyRmsProp <T はTTypeを拡張 > RMSProp アルゴリズムに従って「*var」を更新します。
applyRmsProp.Options ApplyRmsPropのオプションの属性
BatchMatMul <T はTTypeを拡張 > 2 つのテンソルのスライスをバッチで乗算します。
BatchMatMul.オプションBatchMatMulのオプションの属性
バッチサイズの計算部分的なバッチを除いたデータセットの静的なバッチ サイズを計算します。
条件付きアキュムレータ勾配を集約するための条件付きアキュムレータ。
ConditionalAccumulator.オプションConditionalAccumulatorのオプションの属性
VocabRemappingの生成新しい語彙ファイルと古い語彙ファイルへのパスを指定すると、次の再マッピング テンソルを返します。

length `num_new_vocab`、ここで `remapping[i]` には新しい語彙の行 `i` に対応する古い語彙の行番号 (`new_vocab_offset` 行から始まり `num_new_vocab` エンティティまで)、または `-新しい語彙のエントリ「i」が古い語彙にない場合は 1`。

GenerateVocabRemapping.Options GenerateVocabRemappingのオプションの属性
MergeV2チェックポイントV2 形式固有: シャードされたチェックポイントのメタデータ ファイルをマージします。
MergeV2Checkpoints.Options MergeV2Checkpointsのオプションの属性
ネグトレインネガティブサンプリングによるトレーニング。
PreventGradient <T extends TType >グラデーションが要求された場合にエラーをトリガーするアイデンティティ演算。
PreventGradient.Options PreventGradientのオプションの属性
ResourceAccumulatorApplyGradient指定されたアキュムレータに勾配を適用します。
ResourceAccumulatorNumAccumulated指定されたアキュムレータに集約された勾配の数を返します。
ResourceAccumulatorSetGlobalStepアキュムレータを global_step の新しい値で更新します。
ResourceAccumulatorTakeGradient <T extends TType >指定された ConditionalAccumulator の平均勾配を抽出します。
リソースApplyAdadelta adadelta スキームに従って「*var」を更新します。
リソースApplyAdadelta.Options ResourceApplyAdadeltaのオプションの属性
リソース適用アダグラドadagrad スキームに従って「*var」を更新します。
リソースApplyAdagrad.Options ResourceApplyAdagradのオプションの属性
リソースApplyAdagradDa近位の adagrad スキームに従って「*var」を更新します。
リソースApplyAdagradDa.Options ResourceApplyAdagradDaのオプションの属性
リソース適用アダムAdam アルゴリズムに従って「*var」を更新します。
リソースApplyAdam.Options ResourceApplyAdamのオプションの属性
リソースApplyAdaMax AdaMax アルゴリズムに従って「*var」を更新します。
リソースApplyAdaMax.Options ResourceApplyAdaMaxのオプションの属性
リソース適用AdamWithAmsgrad Adam アルゴリズムに従って「*var」を更新します。
リソースApplyAdamWithAmsgrad.Options ResourceApplyAdamWithAmsgradのオプションの属性
リソース適用追加署名AddSign の更新に従って「*var」を更新します。
リソースApplyAddSign.Options ResourceApplyAddSignのオプションの属性
リソースApplyCenteredRmsProp中心の RMSProp アルゴリズムに従って「*var」を更新します。
ResourceApplyCenteredRmsProp.Options ResourceApplyCenteredRmsPropのオプションの属性
リソースApplyFtrl Ftrl-proximal スキームに従って「*var」を更新します。
ResourceApplyFtrl.Options ResourceApplyFtrlのオプションの属性
リソースApplyGradientDescent '*var' から 'alpha' * 'delta' を減算して更新します。
ResourceApplyGradientDescent.Options ResourceApplyGradientDescentのオプションの属性
リソースApplyKerasMomentum運動量スキームに従って「*var」を更新します。
リソースApplyKerasMomentum.Options ResourceApplyKerasMomentumのオプションの属性
リソース適用勢い運動量スキームに従って「*var」を更新します。
リソースApplyMomentum.Options ResourceApplyMomentumのオプションの属性
リソースApplyPowerSign AddSign の更新に従って「*var」を更新します。
リソースApplyPowerSign.Options ResourceApplyPowerSignのオプション属性
リソースApplyProximalAdagrad Adagrad 学習率の FOBOS に従って「*var」と「*accum」を更新します。
ResourceApplyProximalAdagrad.Options ResourceApplyProximalAdagradのオプションの属性
ResourceApplyProximalGradientDescent 「*var」を固定学習率の FOBOS アルゴリズムとして更新します。
ResourceApplyProximalGradientDescent.Options ResourceApplyProximalGradientDescentのオプション属性
リソースApplyRmsProp RMSProp アルゴリズムに従って「*var」を更新します。
ResourceApplyRmsProp.Options ResourceApplyRmsPropのオプションの属性
リソース条件付きアキュムレータ勾配を集約するための条件付きアキュムレータ。
ResourceConditionalAccumulator.Options ResourceConditionalAccumulatorのオプションの属性
リソースSparseApplyAdadelta var: Variable() から取得する必要があります。
ResourceSparseApplyAdadelta.Options ResourceSparseApplyAdadeltaのオプションの属性
リソースSparseApplyアダグラドadagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。
ResourceSparseApplyAdagrad.Options ResourceSparseApplyAdagradのオプションの属性
リソースSparseApplyAdagradDa近位の adagrad スキームに従って、「*var」と「*accum」のエントリを更新します。
ResourceSparseApplyAdagradDa.Options ResourceSparseApplyAdagradDaのオプションの属性
リソースSparseApplyAdagradV2 adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。
ResourceSparseApplyAdagradV2.Options ResourceSparseApplyAdagradV2のオプションの属性
ResourceSparseApplyCenteredRmsProp中心の RMSProp アルゴリズムに従って「*var」を更新します。
ResourceSparseApplyCenteredRmsProp.Options ResourceSparseApplyCenteredRmsPropのオプションの属性
リソースSparseApplyFtrl Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。
ResourceSparseApplyFtrl.Options ResourceSparseApplyFtrlのオプションの属性
リソースSparseApplyKerasMomentumモメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。
ResourceSparseApplyKerasMomentum.Options ResourceSparseApplyKerasMomentumのオプション属性
リソースSparseApplyMomentumモメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。
ResourceSparseApplyMomentum.Options ResourceSparseApplyMomentumのオプションの属性
リソースSparseApplyProximalアダグラドFOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。
ResourceSparseApplyProximalAdagrad.Options ResourceSparseApplyProximalAdagradのオプションの属性
リソースSparseApplyProximalGradientDescent学習率が固定された FOBOS アルゴリズムとして「*var」をスパース更新します。
ResourceSparseApplyProximalGradientDescent.Options ResourceSparseApplyProximalGradientDescentのオプション属性
ResourceSparseApplyRmsProp RMSProp アルゴリズムに従って「*var」を更新します。
ResourceSparseApplyRmsProp.Options ResourceSparseApplyRmsPropのオプションの属性
復元するV2 チェックポイントからテンソルを復元します。
RestoreSlice <T extends TType >チェックポイント ファイルからテンソルを復元します。
RestoreSlice.Options RestoreSliceのオプションの属性
保存テンソルを V2 チェックポイント形式で保存します。
スライスの保存入力テンソル スライスをディスクに保存します。
SdcaFprint入力文字列のフィンガープリントを計算します。
SdcaオプティマイザーStochastic Dual Coowned Ascent (SDCA) オプティマイザーの分散バージョン

L1 + L2 正則化を使用した線形モデル。

SdcaOptimizer.オプションSdcaOptimizerのオプション属性
SdcaShrinkL1パラメータに L1 正則化縮小ステップを適用します。
SparseApplyAdadelta <T extends TType > var: Variable() から取得する必要があります。
SparseApplyAdadelta.Options SparseApplyAdadeltaのオプションの属性
SparseApplyAdagrad <T はTTypeを拡張 > adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。
SparseApplyAdagrad.Options SparseApplyAdagradのオプションの属性
SparseApplyAdagradDa <T extends TType >近位の adagrad スキームに従って、「*var」と「*accum」のエントリを更新します。
SparseApplyAdagradDa.Options SparseApplyAdagradDaのオプションの属性
SparseApplyCenteredRmsProp <T extends TType >中心の RMSProp アルゴリズムに従って「*var」を更新します。
SparseApplyCenteredRmsProp.Options SparseApplyCenteredRmsPropのオプションの属性
SparseApplyFtrl <T はTTypeを拡張 > Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。
SparseApplyFtrl.Options SparseApplyFtrlのオプションの属性
SparseApplyMomentum <T extends TType >モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。
SparseApplyMomentum.Options SparseApplyMomentumのオプションの属性
SparseApplyProximalAdagrad <T extends TType > FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。
SparseApplyProximalAdagrad.Options SparseApplyProximalAdagradのオプションの属性
SparseApplyProximalGradientDescent <T extends TType >学習率が固定された FOBOS アルゴリズムとして「*var」をスパース更新します。
SparseApplyProximalGradientDescent.Options SparseApplyProximalGradientDescentのオプションの属性
SparseApplyRmsProp <T extends TType > RMSProp アルゴリズムに従って「*var」を更新します。
SparseApplyRmsProp.Options SparseApplyRmsPropのオプションの属性
TileGrad <T はTTypeを拡張 > `Tile`のグラデーションを返します。