このページは Cloud Translation API によって翻訳されました。
Switch to English

トレーニングオペレーション

概要

クラス

tensorflow :: ops :: ApplyAdadelta

adadeltaスキームに従って '* var'を更新します。

tensorflow :: ops :: ApplyAdagrad

adagradスキームに従って「* var」を更新します。

tensorflow :: ops :: ApplyAdagradDA

近位adagradスキームに従って「* var」を更新します。

tensorflow :: ops :: ApplyAdam

Adamアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: ApplyAddSign

AddSignの更新に従って「* var」を更新します。

tensorflow :: ops :: ApplyCenteredRMSProp

中心に置かれたRMSPropアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: ApplyFtrl

Ftrl-proximalスキームに従って「* var」を更新します。

tensorflow :: ops :: ApplyFtrlV2

Ftrl-proximalスキームに従って「* var」を更新します。

tensorflow :: ops :: ApplyGradientDescent

'alpha' * 'delta'を差し引いて '* var'を更新します。

tensorflow :: ops :: ApplyMomentum

運動量スキームに従って「* var」を更新します。

tensorflow :: ops :: ApplyPowerSign

AddSignの更新に従って「* var」を更新します。

tensorflow :: ops :: ApplyProximalAdagrad

Adagrad学習率のFOBOSに従って「* var」と「* accum」を更新します。

tensorflow :: ops :: ApplyProximalGradientDescent

固定学習率のFOBOSアルゴリズムとして「* var」を更新します。

tensorflow :: ops :: ApplyRMSProp

RMSPropアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyAdadelta

adadeltaスキームに従って '* var'を更新します。

tensorflow :: ops :: ResourceApplyAdagrad

adagradスキームに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyAdagradDA

近位adagradスキームに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyAdam

Adamアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyAdamWithAmsgrad

Adamアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyAddSign

AddSignの更新に従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyCenteredRMSProp

中心に置かれたRMSPropアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyFtrl

Ftrl-proximalスキームに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyFtrlV2

Ftrl-proximalスキームに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyGradientDescent

'alpha' * 'delta'を差し引いて '* var'を更新します。

tensorflow :: ops :: ResourceApplyKerasMomentum

運動量スキームに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyMomentum

運動量スキームに従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyPowerSign

AddSignの更新に従って「* var」を更新します。

tensorflow :: ops :: ResourceApplyProximalAdagrad

Adagrad学習率のFOBOSに従って「* var」と「* accum」を更新します。

tensorflow :: ops :: ResourceApplyProximalGradientDescent

固定学習率のFOBOSアルゴリズムとして「* var」を更新します。

tensorflow :: ops :: ResourceApplyRMSProp

RMSPropアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: ResourceSparseApplyAdadelta

var:Variable()からのものである必要があります。

tensorflow :: ops :: ResourceSparseApplyAdagrad

adagradスキームに従って、「* var」および「* accum」の関連エントリを更新します。

tensorflow :: ops :: ResourceSparseApplyAdagradDA

「* var」と「* accum」のエントリを、近位のadagradスキームに従って更新します。

tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp

中心に置かれたRMSPropアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: ResourceSparseApplyFtrl

Ftrl-proximalスキームに従って「* var」の関連エントリを更新します。

tensorflow :: ops :: ResourceSparseApplyFtrlV2

Ftrl-proximalスキームに従って「* var」の関連エントリを更新します。

tensorflow :: ops :: ResourceSparseApplyKerasMomentum

運動量スキームに従って、「* var」および「* accum」の関連エントリを更新します。

tensorflow :: ops :: ResourceSparseApplyMomentum

運動量スキームに従って、「* var」および「* accum」の関連エントリを更新します。

tensorflow :: ops :: ResourceSparseApplyProximalAdagrad

FOBOSアルゴリズムに従って、「* var」および「* accum」のスパース更新エントリ。

tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent

固定学習率のFOBOSアルゴリズムとしてのスパース更新 '* var'。

tensorflow :: ops :: ResourceSparseApplyRMSProp

RMSPropアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: SparseApplyAdadelta

var:Variable()からのものである必要があります。

tensorflow :: ops :: SparseApplyAdagrad

adagradスキームに従って、「* var」および「* accum」の関連エントリを更新します。

tensorflow :: ops :: SparseApplyAdagradDA

「* var」と「* accum」のエントリを、近位のadagradスキームに従って更新します。

tensorflow :: ops :: SparseApplyCenteredRMSProp

中心に置かれたRMSPropアルゴリズムに従って「* var」を更新します。

tensorflow :: ops :: SparseApplyFtrl

Ftrl-proximalスキームに従って「* var」の関連エントリを更新します。

tensorflow :: ops :: SparseApplyFtrlV2

Ftrl-proximalスキームに従って「* var」の関連エントリを更新します。

tensorflow :: ops :: SparseApplyMomentum

運動量スキームに従って、「* var」および「* accum」の関連エントリを更新します。

tensorflow :: ops :: SparseApplyProximalAdagrad

FOBOSアルゴリズムに従って、「* var」および「* accum」のスパース更新エントリ。

tensorflow :: ops :: SparseApplyProximalGradientDescent

固定学習率のFOBOSアルゴリズムとしてのスパース更新 '* var'。

tensorflow :: ops :: SparseApplyRMSProp

RMSPropアルゴリズムに従って「* var」を更新します。