Google I/O에 참여해 주셔서 감사합니다. 주문형 모든 세션 보기 주문형 시청

교육 작업

요약

클래스

tensorflow :: ops :: ApplyAdadelta

adadelta 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyAdagrad

adagrad 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyAdagradDA

근위 adagrad 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyAdam

Adam 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyAddSign

AddSign 업데이트에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyCenteredRMSProp

중앙 RMSProp 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyFtrl

Ftrl- 근접 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyFtrlV2

Ftrl- 근접 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyGradientDescent

'알파'* '델타'를 빼서 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyMomentum

모멘텀 계획에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyPowerSign

AddSign 업데이트에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ApplyProximalAdagrad

Adagrad 학습률로 FOBOS에 따라 '* var'및 '* accum'을 업데이트합니다.

tensorflow :: ops :: ApplyProximalGradientDescent

고정 학습률로 '* var'를 FOBOS 알고리즘으로 업데이트합니다.

tensorflow :: ops :: ApplyRMSProp

RMSProp 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyAdadelta

adadelta 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyAdagrad

adagrad 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyAdagradDA

근위 adagrad 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyAdam

Adam 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyAdamWithAmsgrad

Adam 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyAddSign

AddSign 업데이트에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyCenteredRMSProp

중앙 RMSProp 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyFtrl

Ftrl- 근접 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyFtrlV2

Ftrl- 근접 체계에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyGradientDescent

'알파'* '델타'를 빼서 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyKerasMomentum

모멘텀 계획에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyMomentum

모멘텀 계획에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyPowerSign

AddSign 업데이트에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceApplyProximalAdagrad

Adagrad 학습률로 FOBOS에 따라 '* var'및 '* accum'을 업데이트합니다.

tensorflow :: ops :: ResourceApplyProximalGradientDescent

고정 학습률로 '* var'를 FOBOS 알고리즘으로 업데이트합니다.

tensorflow :: ops :: ResourceApplyRMSProp

RMSProp 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceSparseApplyAdadelta

var : Variable ()에서 가져와야합니다.

tensorflow :: ops :: ResourceSparseApplyAdagrad

adagrad 체계에 따라 '* var'및 '* accum'의 관련 항목을 업데이트합니다.

tensorflow :: ops :: ResourceSparseApplyAdagradDA

proximal adagrad 체계에 따라 '* var'및 '* accum'의 항목을 업데이트합니다.

tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp

중앙 RMSProp 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: ResourceSparseApplyFtrl

Ftrl-proximal 체계에 따라 '* var'의 관련 항목을 업데이트합니다.

tensorflow :: ops :: ResourceSparseApplyFtrlV2

Ftrl-proximal 체계에 따라 '* var'의 관련 항목을 업데이트합니다.

tensorflow :: ops :: ResourceSparseApplyKerasMomentum

모멘텀 체계에 따라 '* var'및 '* accum'의 관련 항목을 업데이트합니다.

tensorflow :: ops :: ResourceSparseApplyMomentum

모멘텀 체계에 따라 '* var'및 '* accum'의 관련 항목을 업데이트합니다.

tensorflow :: ops :: ResourceSparseApplyProximalAdagrad

FOBOS 알고리즘에 따라 '* var'및 '* accum'의 희소 업데이트 항목.

tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent

고정 학습률을 사용하는 FOBOS 알고리즘으로 스파 스 업데이트 '* var'.

tensorflow :: ops :: ResourceSparseApplyRMSProp

RMSProp 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: SparseApplyAdadelta

var : Variable ()에서 가져와야합니다.

tensorflow :: ops :: SparseApplyAdagrad

adagrad 체계에 따라 '* var'및 '* accum'의 관련 항목을 업데이트합니다.

tensorflow :: ops :: SparseApplyAdagradDA

proximal adagrad 체계에 따라 '* var'및 '* accum'의 항목을 업데이트합니다.

tensorflow :: ops :: SparseApplyCenteredRMSProp

중앙 RMSProp 알고리즘에 따라 '* var'를 업데이트합니다.

tensorflow :: ops :: SparseApplyFtrl

Ftrl-proximal 체계에 따라 '* var'의 관련 항목을 업데이트합니다.

tensorflow :: ops :: SparseApplyFtrlV2

Ftrl-proximal 체계에 따라 '* var'의 관련 항목을 업데이트합니다.

tensorflow :: ops :: SparseApplyMomentum

모멘텀 체계에 따라 '* var'및 '* accum'의 관련 항목을 업데이트합니다.

tensorflow :: ops :: SparseApplyProximalAdagrad

FOBOS 알고리즘에 따라 '* var'및 '* accum'의 희소 업데이트 항목.

tensorflow :: ops :: SparseApplyProximalGradientDescent

고정 학습률을 사용하는 FOBOS 알고리즘으로 스파 스 업데이트 '* var'.

tensorflow :: ops :: SparseApplyRMSProp

RMSProp 알고리즘에 따라 '* var'를 업데이트합니다.