훈련 작전

요약

클래스

텐서플로우:: ops:: ApplyAdadelta

adadelta 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyAdagrad

adagrad 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyAdagradDA

근위부 adagrad 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyAdam

Adam 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyAddSign

AddSign 업데이트에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyCenteredRMSProp

중심 RMSProp 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyFtrl

Ftrl-proximal 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyFtrlV2

Ftrl-proximal 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyGradientDescent

'*var'에서 'alpha' * 'delta'를 빼서 업데이트합니다.

텐서플로우:: ops:: ApplyMomentum

모멘텀 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyPowerSign

AddSign 업데이트에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyProximalAdagrad

Adagrad 학습률을 사용하여 FOBOS에 따라 '*var' 및 '*accum'을 업데이트합니다.

텐서플로우:: ops:: ApplyProximalGradientDescent

고정 학습률을 사용하는 FOBOS 알고리즘으로 '*var'를 업데이트합니다.

텐서플로우:: ops:: ApplyRMSProp

RMSProp 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyAdadelta

adadelta 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyAdagrad

adagrad 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyAdagradDA

근위부 adagrad 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyAdam

Adam 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyAdamWithAmsgrad

Adam 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyAddSign

AddSign 업데이트에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyCenteredRMSProp

중심 RMSProp 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyFtrl

Ftrl-proximal 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyFtrlV2

Ftrl-proximal 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyGradientDescent

'*var'에서 'alpha' * 'delta'를 빼서 업데이트합니다.

텐서플로우:: ops:: ResourceApplyKerasMomentum

모멘텀 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyMomentum

모멘텀 체계에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyPowerSign

AddSign 업데이트에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyProximalAdagrad

Adagrad 학습률을 사용하여 FOBOS에 따라 '*var' 및 '*accum'을 업데이트합니다.

텐서플로우:: ops:: ResourceApplyProximalGradientDescent

고정 학습률을 사용하는 FOBOS 알고리즘으로 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceApplyRMSProp

RMSProp 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceSparseApplyAdadelta

var: Variable()에서 가져와야 합니다.

텐서플로우:: ops:: ResourceSparseApplyAdagrad

adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다.

텐서플로우:: ops:: ResourceSparseApplyAdagradDA

근위부 adagrad 체계에 따라 '*var' 및 '*accum'의 항목을 업데이트합니다.

텐서플로우:: ops:: ResourceSparseApplyCenteredRMSProp

중심 RMSProp 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: ResourceSparseApplyFtrl

Ftrl-proximal 체계에 따라 '*var'의 관련 항목을 업데이트합니다.

텐서플로우:: ops:: ResourceSparseApplyFtrlV2

Ftrl-proximal 체계에 따라 '*var'의 관련 항목을 업데이트합니다.

텐서플로우:: ops:: ResourceSparseApplyKerasMomentum

모멘텀 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다.

텐서플로우:: ops:: ResourceSparseApplyMomentum

모멘텀 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다.

텐서플로우:: ops:: ResourceSparseApplyProximalAdagrad

FOBOS 알고리즘에 따라 '*var' 및 '*accum'의 희소 업데이트 항목입니다.

텐서플로우:: ops:: ResourceSparseApplyProximalGradientDescent

학습률이 고정된 FOBOS 알고리즘으로 '*var'를 희소 업데이트합니다.

텐서플로우:: ops:: ResourceSparseApplyRMSProp

RMSProp 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: SparseApplyAdadelta

var: Variable()에서 가져와야 합니다.

텐서플로우:: ops:: SparseApplyAdagrad

adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다.

텐서플로우:: ops:: SparseApplyAdagradDA

근위부 adagrad 체계에 따라 '*var' 및 '*accum'의 항목을 업데이트합니다.

텐서플로우:: ops:: SparseApplyCenteredRMSProp

중심 RMSProp 알고리즘에 따라 '*var'를 업데이트합니다.

텐서플로우:: ops:: SparseApplyFtrl

Ftrl-proximal 체계에 따라 '*var'의 관련 항목을 업데이트합니다.

텐서플로우:: ops:: SparseApplyFtrlV2

Ftrl-proximal 체계에 따라 '*var'의 관련 항목을 업데이트합니다.

텐서플로우:: ops:: SparseApplyMomentum

모멘텀 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다.

텐서플로우:: ops:: SparseApplyProximalAdagrad

FOBOS 알고리즘에 따라 '*var' 및 '*accum'의 희소 업데이트 항목입니다.

텐서플로우:: ops:: SparseApplyProximalGradientDescent

학습률이 고정된 FOBOS 알고리즘으로 '*var'를 희소 업데이트합니다.

텐서플로우:: ops:: SparseApplyRMSProp

RMSProp 알고리즘에 따라 '*var'를 업데이트합니다.