Operaciones de entrenamiento

Resumen

Clases

tensorflow :: ops :: ApplyAdadelta

Actualice '* var' de acuerdo con el esquema adadelta.

tensorflow :: ops :: ApplyAdagrad

Actualice '* var' de acuerdo con el esquema adagrad.

tensorflow :: ops :: ApplyAdagradDA

Actualice '* var' de acuerdo con el esquema de adagrad proximal.

tensorflow :: ops :: ApplyAdam

Actualice '* var' según el algoritmo de Adam.

tensorflow :: ops :: ApplyAddSign

Actualice '* var' de acuerdo con la actualización de AddSign.

tensorflow :: ops :: ApplyCenteredRMSProp

Actualice '* var' de acuerdo con el algoritmo RMSProp centrado.

tensorflow :: ops :: ApplyFtrl

Actualice '* var' de acuerdo con el esquema Ftrl-proximal.

tensorflow :: ops :: ApplyFtrlV2

Actualice '* var' de acuerdo con el esquema Ftrl-proximal.

tensorflow :: ops :: ApplyGradientDescent

Actualice '* var' restando 'alpha' * 'delta' de él.

tensorflow :: ops :: ApplyMomentum

Actualice '* var' de acuerdo con el esquema de impulso.

tensorflow :: ops :: ApplyPowerSign

Actualice '* var' de acuerdo con la actualización de AddSign.

tensorflow :: ops :: ApplyProximalAdagrad

Actualice '* var' y '* acumula' según FOBOS con la tasa de aprendizaje de Adagrad.

tensorflow :: ops :: ApplyProximalGradientDescent

Actualice '* var' como algoritmo FOBOS con tasa de aprendizaje fija.

tensorflow :: ops :: ApplyRMSProp

Actualice '* var' de acuerdo con el algoritmo RMSProp.

tensorflow :: ops :: ResourceApplyAdadelta

Actualice '* var' de acuerdo con el esquema adadelta.

tensorflow :: ops :: ResourceApplyAdagrad

Actualice '* var' de acuerdo con el esquema adagrad.

tensorflow :: ops :: ResourceApplyAdagradDA

Actualice '* var' de acuerdo con el esquema de adagrad proximal.

tensorflow :: ops :: ResourceApplyAdam

Actualice '* var' según el algoritmo de Adam.

tensorflow :: ops :: ResourceApplyAdamWithAmsgrad

Actualice '* var' según el algoritmo de Adam.

tensorflow :: ops :: ResourceApplyAddSign

Actualice '* var' de acuerdo con la actualización de AddSign.

tensorflow :: ops :: ResourceApplyCenteredRMSProp

Actualice '* var' de acuerdo con el algoritmo RMSProp centrado.

tensorflow :: ops :: ResourceApplyFtrl

Actualice '* var' de acuerdo con el esquema Ftrl-proximal.

tensorflow :: ops :: ResourceApplyFtrlV2

Actualice '* var' de acuerdo con el esquema Ftrl-proximal.

tensorflow :: ops :: ResourceApplyGradientDescent

Actualice '* var' restando 'alpha' * 'delta' de él.

tensorflow :: ops :: ResourceApplyKerasMomentum

Actualice '* var' de acuerdo con el esquema de impulso.

tensorflow :: ops :: ResourceApplyMomentum

Actualice '* var' de acuerdo con el esquema de impulso.

tensorflow :: ops :: ResourceApplyPowerSign

Actualice '* var' de acuerdo con la actualización de AddSign.

tensorflow :: ops :: ResourceApplyProximalAdagrad

Actualice '* var' y '* acumula' según FOBOS con la tasa de aprendizaje de Adagrad.

tensorflow :: ops :: ResourceApplyProximalGradientDescent

Actualice '* var' como algoritmo FOBOS con tasa de aprendizaje fija.

tensorflow :: ops :: ResourceApplyRMSProp

Actualice '* var' de acuerdo con el algoritmo RMSProp.

tensorflow :: ops :: ResourceSparseApplyAdadelta

var: debe ser de una variable ().

tensorflow :: ops :: ResourceSparseApplyAdagrad

Actualice las entradas relevantes en '* var' y '* acumula' de acuerdo con el esquema adagrad.

tensorflow :: ops :: ResourceSparseApplyAdagradDA

Actualice las entradas en '* var' y '* acumula' de acuerdo con el esquema de adagrad proximal.

tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp

Actualice '* var' de acuerdo con el algoritmo RMSProp centrado.

tensorflow :: ops :: ResourceSparseApplyFtrl

Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal.

tensorflow :: ops :: ResourceSparseApplyFtrlV2

Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal.

tensorflow :: ops :: ResourceSparseApplyKerasMomentum

Actualice las entradas relevantes en '* var' y '* acum' de acuerdo con el esquema de impulso.

tensorflow :: ops :: ResourceSparseApplyMomentum

Actualice las entradas relevantes en '* var' y '* acum' de acuerdo con el esquema de impulso.

tensorflow :: ops :: ResourceSparseApplyProximalAdagrad

Entradas de actualización dispersas en '* var' y '* acumula' según el algoritmo FOBOS.

tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent

Actualización dispersa '* var' como algoritmo FOBOS con tasa de aprendizaje fija.

tensorflow :: ops :: ResourceSparseApplyRMSProp

Actualice '* var' de acuerdo con el algoritmo RMSProp.

tensorflow :: ops :: SparseApplyAdadelta

var: debe ser de una variable ().

tensorflow :: ops :: SparseApplyAdagrad

Actualice las entradas relevantes en '* var' y '* acumula' de acuerdo con el esquema adagrad.

tensorflow :: ops :: SparseApplyAdagradDA

Actualice las entradas en '* var' y '* acumula' de acuerdo con el esquema de adagrad proximal.

tensorflow :: ops :: SparseApplyCenteredRMSProp

Actualice '* var' de acuerdo con el algoritmo RMSProp centrado.

tensorflow :: ops :: SparseApplyFtrl

Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal.

tensorflow :: ops :: SparseApplyFtrlV2

Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal.

tensorflow :: ops :: SparseApplyMomentum

Actualice las entradas relevantes en '* var' y '* acum' de acuerdo con el esquema de impulso.

tensorflow :: ops :: SparseApplyProximalAdagrad

Entradas de actualización dispersas en '* var' y '* acumula' según el algoritmo FOBOS.

tensorflow :: ops :: SparseApplyProximalGradientDescent

Actualización dispersa '* var' como algoritmo FOBOS con tasa de aprendizaje fija.

tensorflow :: ops :: SparseApplyRMSProp

Actualice '* var' de acuerdo con el algoritmo RMSProp.