Szkolenia Ops
streszczenie
Zajęcia | |
---|---|
tensorflow :: ops :: ApplyAdadelta | Zaktualizuj „* var” zgodnie ze schematem adadelta. |
tensorflow :: ops :: ApplyAdagrad | Zaktualizuj „* var” zgodnie ze schematem adagrad. |
tensorflow :: ops :: ApplyAdagradDA | Zaktualizuj „* var” zgodnie z proksymalnym schematem Adagrad. |
tensorflow :: ops :: ApplyAdam | Zaktualizuj „* var” zgodnie z algorytmem Adama. |
tensorflow :: ops :: ApplyAddSign | Zaktualizuj „* var” zgodnie z aktualizacją AddSign. |
tensorflow :: ops :: ApplyCenteredRMSProp | Zaktualizuj „* var” zgodnie z wyśrodkowanym algorytmem RMSProp. |
tensorflow :: ops :: ApplyFtrl | Zaktualizuj „* var” zgodnie ze schematem proksymalnym Ftrl. |
tensorflow :: ops :: ApplyFtrlV2 | Zaktualizuj „* var” zgodnie ze schematem proksymalnym Ftrl. |
tensorflow :: ops :: ApplyGradientDescent | Zaktualizuj „* var”, odejmując od niego „alpha” * „delta”. |
tensorflow :: ops :: ApplyMomentum | Zaktualizuj „* var” zgodnie ze schematem rozpędu. |
tensorflow :: ops :: ApplyPowerSign | Zaktualizuj „* var” zgodnie z aktualizacją AddSign. |
tensorflow :: ops :: ApplyProximalAdagrad | Zaktualizuj „* var” i „* accum” zgodnie z FOBOS z szybkością uczenia się Adagrad. |
tensorflow :: ops :: ApplyProximalGradientDescent | Zaktualizuj „* var” jako algorytm FOBOS ze stałym współczynnikiem uczenia się. |
tensorflow :: ops :: ApplyRMSProp | Zaktualizuj „* var” zgodnie z algorytmem RMSProp. |
tensorflow :: ops :: ResourceApplyAdadelta | Zaktualizuj „* var” zgodnie ze schematem adadelta. |
tensorflow :: ops :: ResourceApplyAdagrad | Zaktualizuj „* var” zgodnie ze schematem adagrad. |
tensorflow :: ops :: ResourceApplyAdagradDA | Zaktualizuj „* var” zgodnie z proksymalnym schematem Adagrad. |
tensorflow :: ops :: ResourceApplyAdam | Zaktualizuj „* var” zgodnie z algorytmem Adama. |
tensorflow :: ops :: ResourceApplyAdamWithAmsgrad | Zaktualizuj „* var” zgodnie z algorytmem Adama. |
tensorflow :: ops :: ResourceApplyAddSign | Zaktualizuj „* var” zgodnie z aktualizacją AddSign. |
tensorflow :: ops :: ResourceApplyCenteredRMSProp | Zaktualizuj „* var” zgodnie z wyśrodkowanym algorytmem RMSProp. |
tensorflow :: ops :: ResourceApplyFtrl | Zaktualizuj „* var” zgodnie ze schematem proksymalnym Ftrl. |
tensorflow :: ops :: ResourceApplyFtrlV2 | Zaktualizuj „* var” zgodnie ze schematem proksymalnym Ftrl. |
tensorflow :: ops :: ResourceApplyGradientDescent | Zaktualizuj „* var”, odejmując od niego „alpha” * „delta”. |
tensorflow :: ops :: ResourceApplyKerasMomentum | Zaktualizuj „* var” zgodnie ze schematem rozpędu. |
tensorflow :: ops :: ResourceApplyMomentum | Zaktualizuj „* var” zgodnie ze schematem rozpędu. |
tensorflow :: ops :: ResourceApplyPowerSign | Zaktualizuj „* var” zgodnie z aktualizacją AddSign. |
tensorflow :: ops :: ResourceApplyProximalAdagrad | Zaktualizuj „* var” i „* accum” zgodnie z FOBOS z szybkością uczenia się Adagrad. |
tensorflow :: ops :: ResourceApplyProximalGradientDescent | Zaktualizuj „* var” jako algorytm FOBOS ze stałym współczynnikiem uczenia się. |
tensorflow :: ops :: ResourceApplyRMSProp | Zaktualizuj „* var” zgodnie z algorytmem RMSProp. |
tensorflow :: ops :: ResourceSparseApplyAdadelta | zmienna: powinna pochodzić ze zmiennej (). |
tensorflow :: ops :: ResourceSparseApplyAdagrad | Zaktualizuj odpowiednie wpisy w „* var” i „* accum” zgodnie ze schematem adagrad. |
tensorflow :: ops :: ResourceSparseApplyAdagradDA | Zaktualizuj wpisy w „* var” i „* accum” zgodnie z proksymalnym schematem Adagrad. |
tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp | Zaktualizuj „* var” zgodnie z wyśrodkowanym algorytmem RMSProp. |
tensorflow :: ops :: ResourceSparseApplyFtrl | Zaktualizuj odpowiednie wpisy w „* var” zgodnie ze schematem proksymalnym Ftrl. |
tensorflow :: ops :: ResourceSparseApplyFtrlV2 | Zaktualizuj odpowiednie wpisy w „* var” zgodnie ze schematem proksymalnym Ftrl. |
tensorflow :: ops :: ResourceSparseApplyKerasMomentum | Zaktualizuj odpowiednie wpisy w „* var” i „* accum” zgodnie ze schematem momentum. |
tensorflow :: ops :: ResourceSparseApplyMomentum | Zaktualizuj odpowiednie wpisy w „* var” i „* accum” zgodnie ze schematem momentum. |
tensorflow :: ops :: ResourceSparseApplyProximalAdagrad | Rzadkie wpisy aktualizacji w „* var” i „* accum” zgodnie z algorytmem FOBOS. |
tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent | Rzadka aktualizacja „* var” jako algorytm FOBOS ze stałą szybkością uczenia się. |
tensorflow :: ops :: ResourceSparseApplyRMSProp | Zaktualizuj „* var” zgodnie z algorytmem RMSProp. |
tensorflow :: ops :: SparseApplyAdadelta | zmienna: powinna pochodzić ze zmiennej (). |
tensorflow :: ops :: SparseApplyAdagrad | Zaktualizuj odpowiednie wpisy w „* var” i „* accum” zgodnie ze schematem adagrad. |
tensorflow :: ops :: SparseApplyAdagradDA | Zaktualizuj wpisy w „* var” i „* accum” zgodnie z proksymalnym schematem Adagrad. |
tensorflow :: ops :: SparseApplyCenteredRMSProp | Zaktualizuj „* var” zgodnie z wyśrodkowanym algorytmem RMSProp. |
tensorflow :: ops :: SparseApplyFtrl | Zaktualizuj odpowiednie wpisy w „* var” zgodnie ze schematem proksymalnym Ftrl. |
tensorflow :: ops :: SparseApplyFtrlV2 | Zaktualizuj odpowiednie wpisy w „* var” zgodnie ze schematem proksymalnym Ftrl. |
tensorflow :: ops :: SparseApplyMomentum | Zaktualizuj odpowiednie wpisy w „* var” i „* accum” zgodnie ze schematem momentum. |
tensorflow :: ops :: SparseApplyProximalAdagrad | Rzadkie wpisy aktualizacji w „* var” i „* accum” zgodnie z algorytmem FOBOS. |
tensorflow :: ops :: SparseApplyProximalGradientDescent | Rzadka aktualizacja „* var” jako algorytm FOBOS ze stałą szybkością uczenia się. |
tensorflow :: ops :: SparseApplyRMSProp | Zaktualizuj „* var” zgodnie z algorytmem RMSProp. |