Eine Frage haben? Verbinden Sie sich mit der Community im TensorFlow Forum Visit Forum

Training Ops

Zusammenfassung

Klassen

tensorflow :: ops :: ApplyAdadelta

Aktualisieren Sie '* var' gemäß dem Adadelta-Schema.

tensorflow :: ops :: ApplyAdagrad

Aktualisieren Sie '* var' gemäß dem Adagrad-Schema.

tensorflow :: ops :: ApplyAdagradDA

Aktualisieren Sie '* var' gemäß dem proximalen Adagrad-Schema.

tensorflow :: ops :: ApplyAdam

Aktualisieren Sie '* var' gemäß dem Adam-Algorithmus.

tensorflow :: ops :: ApplyAddSign

Aktualisieren Sie '* var' gemäß dem AddSign-Update.

tensorflow :: ops :: ApplyCenteredRMSProp

Aktualisieren Sie '* var' gemäß dem zentrierten RMSProp-Algorithmus.

tensorflow :: ops :: ApplyFtrl

Aktualisieren Sie '* var' gemäß dem Ftrl-proximalen Schema.

tensorflow :: ops :: ApplyFtrlV2

Aktualisieren Sie '* var' gemäß dem Ftrl-proximalen Schema.

tensorflow :: ops :: ApplyGradientDescent

Aktualisieren Sie '* var', indem Sie 'alpha' * 'delta' davon abziehen.

tensorflow :: ops :: ApplyMomentum

Aktualisieren Sie '* var' gemäß dem Momentum-Schema.

tensorflow :: ops :: ApplyPowerSign

Aktualisieren Sie '* var' gemäß dem AddSign-Update.

tensorflow :: ops :: ApplyProximalAdagrad

Aktualisieren Sie '* var' und '* accum' gemäß FOBOS mit der Adagrad-Lernrate.

tensorflow :: ops :: ApplyProximalGradientDescent

Aktualisieren Sie '* var' als FOBOS-Algorithmus mit fester Lernrate.

tensorflow :: ops :: ApplyRMSProp

Aktualisieren Sie '* var' gemäß dem RMSProp-Algorithmus.

tensorflow :: ops :: ResourceApplyAdadelta

Aktualisieren Sie '* var' gemäß dem Adadelta-Schema.

tensorflow :: ops :: ResourceApplyAdagrad

Aktualisieren Sie '* var' gemäß dem Adagrad-Schema.

tensorflow :: ops :: ResourceApplyAdagradDA

Aktualisieren Sie '* var' gemäß dem proximalen Adagrad-Schema.

tensorflow :: ops :: ResourceApplyAdam

Aktualisieren Sie '* var' gemäß dem Adam-Algorithmus.

tensorflow :: ops :: ResourceApplyAdamWithAmsgrad

Aktualisieren Sie '* var' gemäß dem Adam-Algorithmus.

tensorflow :: ops :: ResourceApplyAddSign

Aktualisieren Sie '* var' gemäß dem AddSign-Update.

tensorflow :: ops :: ResourceApplyCenteredRMSProp

Aktualisieren Sie '* var' gemäß dem zentrierten RMSProp-Algorithmus.

tensorflow :: ops :: ResourceApplyFtrl

Aktualisieren Sie '* var' gemäß dem Ftrl-proximalen Schema.

tensorflow :: ops :: ResourceApplyFtrlV2

Aktualisieren Sie '* var' gemäß dem Ftrl-proximalen Schema.

tensorflow :: ops :: ResourceApplyGradientDescent

Aktualisieren Sie '* var', indem Sie 'alpha' * 'delta' davon abziehen.

tensorflow :: ops :: ResourceApplyKerasMomentum

Aktualisieren Sie '* var' gemäß dem Momentum-Schema.

tensorflow :: ops :: ResourceApplyMomentum

Aktualisieren Sie '* var' gemäß dem Momentum-Schema.

tensorflow :: ops :: ResourceApplyPowerSign

Aktualisieren Sie '* var' gemäß dem AddSign-Update.

tensorflow :: ops :: ResourceApplyProximalAdagrad

Aktualisieren Sie '* var' und '* accum' gemäß FOBOS mit der Adagrad-Lernrate.

tensorflow :: ops :: ResourceApplyProximalGradientDescent

Aktualisieren Sie '* var' als FOBOS-Algorithmus mit fester Lernrate.

tensorflow :: ops :: ResourceApplyRMSProp

Aktualisieren Sie '* var' gemäß dem RMSProp-Algorithmus.

tensorflow :: ops :: ResourceSparseApplyAdadelta

var: Sollte von einer Variablen stammen ().

tensorflow :: ops :: ResourceSparseApplyAdagrad

Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Adagrad-Schema.

tensorflow :: ops :: ResourceSparseApplyAdagradDA

Aktualisieren Sie die Einträge in '* var' und '* accum' gemäß dem proximalen Adagrad-Schema.

tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp

Aktualisieren Sie '* var' gemäß dem zentrierten RMSProp-Algorithmus.

tensorflow :: ops :: ResourceSparseApplyFtrl

Aktualisieren Sie relevante Einträge in '* var' gemäß dem Ftrl-proximalen Schema.

tensorflow :: ops :: ResourceSparseApplyFtrlV2

Aktualisieren Sie relevante Einträge in '* var' gemäß dem Ftrl-proximalen Schema.

tensorflow :: ops :: ResourceSparseApplyKerasMomentum

Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Momentum-Schema.

tensorflow :: ops :: ResourceSparseApplyMomentum

Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Momentum-Schema.

tensorflow :: ops :: ResourceSparseApplyProximalAdagrad

Sparse Update-Einträge in '* var' und '* accum' gemäß FOBOS-Algorithmus.

tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent

Sparsames Update '* var' als FOBOS-Algorithmus mit fester Lernrate.

tensorflow :: ops :: ResourceSparseApplyRMSProp

Aktualisieren Sie '* var' gemäß dem RMSProp-Algorithmus.

tensorflow :: ops :: SparseApplyAdadelta

var: Sollte von einer Variablen stammen ().

tensorflow :: ops :: SparseApplyAdagrad

Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Adagrad-Schema.

tensorflow :: ops :: SparseApplyAdagradDA

Aktualisieren Sie die Einträge in '* var' und '* accum' gemäß dem proximalen Adagrad-Schema.

tensorflow :: ops :: SparseApplyCenteredRMSProp

Aktualisieren Sie '* var' gemäß dem zentrierten RMSProp-Algorithmus.

tensorflow :: ops :: SparseApplyFtrl

Aktualisieren Sie relevante Einträge in '* var' gemäß dem Ftrl-proximalen Schema.

tensorflow :: ops :: SparseApplyFtrlV2

Aktualisieren Sie relevante Einträge in '* var' gemäß dem Ftrl-proximalen Schema.

tensorflow :: ops :: SparseApplyMomentum

Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Momentum-Schema.

tensorflow :: ops :: SparseApplyProximalAdagrad

Sparse Update-Einträge in '* var' und '* accum' gemäß FOBOS-Algorithmus.

tensorflow :: ops :: SparseApplyProximalGradientDescent

Sparsames Update '* var' als FOBOS-Algorithmus mit fester Lernrate.

tensorflow :: ops :: SparseApplyRMSProp

Aktualisieren Sie '* var' gemäß dem RMSProp-Algorithmus.