ML Topluluk Günü 9 Kasım! TensorFlow, JAX güncellemeler için bize katılın ve daha fazla bilgi edinin

Eğitim Operasyonları

Özet

Sınıflar

tensorflow :: ops :: ApplyAdadelta

Adadelta düzenine göre '* var'ı güncelleyin.

tensorflow :: ops :: ApplyAdagrad

Adagrad şemasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ApplyAdagradDA

Proksimal adagrad şemasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ApplyAdam

Adam algoritmasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ApplyAddSign

AddSign güncellemesine göre '* var'ı güncelleyin.

tensorflow :: ops :: ApplyCenteredRMSProp

"* Var" ı ortalanmış RMSProp algoritmasına göre güncelleyin.

tensorflow :: ops :: ApplyFtrl

Ftrl proksimal şemasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ApplyFtrlV2

Ftrl proksimal şemasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ApplyGradientDescent

Ondan 'alfa' * 'delta'yı çıkararak' * var'ı güncelleyin.

tensorflow :: ops :: ApplyMomentum

Momentum şemasına göre "* var" ı güncelleyin.

tensorflow :: ops :: ApplyPowerSign

AddSign güncellemesine göre '* var'ı güncelleyin.

tensorflow :: ops :: ApplyProximalAdagrad

Adagrad öğrenme oranıyla FOBOS'a göre "* var" ve "* biriktir" i güncelleyin.

tensorflow :: ops :: ApplyProximalGradientDescent

Sabit öğrenme oranına sahip FOBOS algoritması olarak '* var'ı güncelleyin.

tensorflow :: ops :: ApplyRMSProp

RMSProp algoritmasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyAdadelta

Adadelta düzenine göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyAdagrad

Adagrad şemasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyAdagradDA

Proksimal adagrad şemasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyAdam

Adam algoritmasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyAdamWithAmsgrad

Adam algoritmasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyAddSign

AddSign güncellemesine göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyCenteredRMSProp

"* Var" ı ortalanmış RMSProp algoritmasına göre güncelleyin.

tensorflow :: ops :: ResourceApplyFtrl

Ftrl proksimal şemasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyFtrlV2

Ftrl proksimal şemasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyGradientDescent

Ondan 'alfa' * 'delta'yı çıkararak' * var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyKerasMomentum

Momentum şemasına göre "* var" ı güncelleyin.

tensorflow :: ops :: ResourceApplyMomentum

Momentum şemasına göre "* var" ı güncelleyin.

tensorflow :: ops :: ResourceApplyPowerSign

AddSign güncellemesine göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyProximalAdagrad

Adagrad öğrenme oranıyla FOBOS'a göre "* var" ve "* biriktir" i güncelleyin.

tensorflow :: ops :: ResourceApplyProximalGradientDescent

Sabit öğrenme oranına sahip FOBOS algoritması olarak '* var'ı güncelleyin.

tensorflow :: ops :: ResourceApplyRMSProp

RMSProp algoritmasına göre '* var'ı güncelleyin.

tensorflow :: ops :: ResourceSparseApplyAdadelta

var: Değişken () 'den olmalıdır.

tensorflow :: ops :: ResourceSparseApplyAdagrad

Adagrad şemasına göre '* var' ve '* biriktirme' içindeki ilgili girişleri güncelleyin.

tensorflow :: ops :: ResourceSparseApplyAdagradDA

Proksimal adagrad şemasına göre '* var' ve '* biriktirme' içindeki girişleri güncelleyin.

tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp

"* Var" ı ortalanmış RMSProp algoritmasına göre güncelleyin.

tensorflow :: ops :: ResourceSparseApplyFtrl

Ftrl proksimal şemasına göre '* var' içindeki ilgili girişleri güncelleyin.

tensorflow :: ops :: ResourceSparseApplyFtrlV2

Ftrl proksimal şemasına göre '* var' içindeki ilgili girişleri güncelleyin.

tensorflow :: ops :: ResourceSparseApplyKerasMomentum

Momentum şemasına göre '* var' ve '* biriktirme' içindeki ilgili girişleri güncelleyin.

tensorflow :: ops :: ResourceSparseApplyMomentum

Momentum şemasına göre '* var' ve '* biriktirme' içindeki ilgili girişleri güncelleyin.

tensorflow :: ops :: ResourceSparseApplyProximalAdagrad

FOBOS algoritmasına göre '* var' ve '* birikim' içindeki güncelleme girişlerini seyrek.

tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent

Sabit öğrenme oranına sahip FOBOS algoritması olarak seyrek güncelleme '* var'.

tensorflow :: ops :: ResourceSparseApplyRMSProp

RMSProp algoritmasına göre '* var'ı güncelleyin.

tensorflow :: ops :: SparseApplyAdadelta

var: Değişken () 'den olmalıdır.

tensorflow :: ops :: SparseApplyAdagrad

Adagrad şemasına göre '* var' ve '* biriktirme' içindeki ilgili girişleri güncelleyin.

tensorflow :: ops :: SparseApplyAdagradDA

Proksimal adagrad şemasına göre '* var' ve '* biriktirme' içindeki girişleri güncelleyin.

tensorflow :: ops :: SparseApplyCenteredRMSProp

"* Var" ı ortalanmış RMSProp algoritmasına göre güncelleyin.

tensorflow :: ops :: SparseApplyFtrl

Ftrl proksimal şemasına göre '* var' içindeki ilgili girişleri güncelleyin.

tensorflow :: ops :: SparseApplyFtrlV2

Ftrl proksimal şemasına göre '* var' içindeki ilgili girişleri güncelleyin.

tensorflow :: ops :: SparseApplyMomentum

Momentum şemasına göre '* var' ve '* biriktirme' içindeki ilgili girişleri güncelleyin.

tensorflow :: ops :: SparseApplyProximalAdagrad

FOBOS algoritmasına göre '* var' ve '* birikim' içindeki güncelleme girişlerini seyrek.

tensorflow :: ops :: SparseApplyProximalGradientDescent

Sabit öğrenme oranına sahip FOBOS algoritması olarak seyrek güncelleme '* var'.

tensorflow :: ops :: SparseApplyRMSProp

RMSProp algoritmasına göre '* var'ı güncelleyin.