訓練作戦

まとめ

クラス

tensorflow::ops::ApplyAdadelta

adadelta スキームに従って「*var」を更新します。

tensorflow::ops::ApplyAdagrad

adagrad スキームに従って「*var」を更新します。

tensorflow::ops::ApplyAdagradDA

近位の adagrad スキームに従って「*var」を更新します。

tensorflow::ops::ApplyAdam

Adam アルゴリズムに従って「*var」を更新します。

tensorflow::ops::ApplyAddSign

AddSign の更新に従って「*var」を更新します。

tensorflow:: ops::ApplyCenteredRMSProp

中心の RMSProp アルゴリズムに従って「*var」を更新します。

tensorflow::ops::ApplyFtrl

Ftrl-proximal スキームに従って「*var」を更新します。

tensorflow::ops::ApplyFtrlV2

Ftrl-proximal スキームに従って「*var」を更新します。

tensorflow::ops::ApplyGradientDescent

'*var' から 'alpha' * 'delta' を減算して更新します。

tensorflow::ops::ApplyMomentum

運動量スキームに従って「*var」を更新します。

tensorflow::ops::ApplyPowerSign

AddSign の更新に従って「*var」を更新します。

tensorflow:: ops:: applyProximalAdagrad

Adagrad 学習率の FOBOS に従って「*var」と「*accum」を更新します。

tensorflow:: ops:: applyProximalGradientDescent

「*var」を固定学習率の FOBOS アルゴリズムとして更新します。

tensorflow::ops::ApplyRMSProp

RMSProp アルゴリズムに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyAdadelta

adadelta スキームに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyAdagrad

adagrad スキームに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyAdagradDA

近位の adagrad スキームに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyAdam

Adam アルゴリズムに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyAdamWithAmsgrad

Adam アルゴリズムに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyAddSign

AddSign の更新に従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyCenteredRMSProp

中心の RMSProp アルゴリズムに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyFtrl

Ftrl-proximal スキームに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyFtrlV2

Ftrl-proximal スキームに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyGradientDescent

'*var' から 'alpha' * 'delta' を減算して更新します。

tensorflow:: ops:: ResourceApplyKerasMomentum

運動量スキームに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyMomentum

運動量スキームに従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyPowerSign

AddSign の更新に従って「*var」を更新します。

tensorflow:: ops:: ResourceApplyProximalAdagrad

Adagrad 学習率の FOBOS に従って「*var」と「*accum」を更新します。

tensorflow:: ops:: ResourceApplyProximalGradientDescent

「*var」を固定学習率の FOBOS アルゴリズムとして更新します。

tensorflow:: ops:: ResourceApplyRMSProp

RMSProp アルゴリズムに従って「*var」を更新します。

tensorflow:: ops:: ResourceSparseApplyAdadelta

var: Variable() から取得する必要があります。

tensorflow:: ops:: ResourceSparseApplyAdagrad

adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。

tensorflow:: ops:: ResourceSparseApplyAdagradDA

近位の adagrad スキームに従って、「*var」と「*accum」のエントリを更新します。

tensorflow:: ops:: ResourceSparseApplyCenteredRMSProp

中心の RMSProp アルゴリズムに従って「*var」を更新します。

tensorflow:: ops:: ResourceSparseApplyFtrl

Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。

tensorflow:: ops:: ResourceSparseApplyFtrlV2

Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。

tensorflow:: ops:: ResourceSparseApplyKerasMomentum

モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。

tensorflow:: ops:: ResourceSparseApplyMomentum

モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。

tensorflow:: ops:: ResourceSparseApplyProximalAdagrad

FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。

tensorflow:: ops:: ResourceSparseApplyProximalGradientDescent

学習率が固定された FOBOS アルゴリズムとして「*var」をスパース更新します。

tensorflow:: ops:: ResourceSparseApplyRMSProp

RMSProp アルゴリズムに従って「*var」を更新します。

tensorflow:: ops:: SparseApplyAdadelta

var: Variable() から取得する必要があります。

tensorflow:: ops:: SparseApplyAdagrad

adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。

tensorflow:: ops:: SparseApplyAdagradDA

近位の adagrad スキームに従って、「*var」と「*accum」のエントリを更新します。

tensorflow:: ops:: SparseApplyCenteredRMSProp

中心の RMSProp アルゴリズムに従って「*var」を更新します。

tensorflow:: ops:: SparseApplyFtrl

Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。

tensorflow:: ops:: SparseApplyFtrlV2

Ftrl-proximal スキームに従って、「*var」内の関連エントリを更新します。

tensorflow:: ops:: SparseApplyMomentum

モメンタムスキームに従って、「*var」と「*accum」の関連エントリを更新します。

tensorflow:: ops:: SparseApplyProximalAdagrad

FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。

tensorflow:: ops:: SparseApplyProximalGradientDescent

学習率が固定された FOBOS アルゴリズムとして「*var」をスパース更新します。

tensorflow:: ops:: SparseApplyRMSProp

RMSProp アルゴリズムに従って「*var」を更新します。