org.tensorflow.framework.optimizers

클래스

에이다델타 Adadelta 알고리즘을 구현하는 최적화 프로그램입니다.
아다그라드 Adagrad 알고리즘을 구현하는 최적화 프로그램입니다.
AdaGradDA Adagrad Dual-Averaging 알고리즘을 구현하는 최적화 프로그램입니다.
아담 Adam 알고리즘을 구현하는 최적화 프로그램입니다.
아다맥스 Adamax 알고리즘을 구현하는 최적화 프로그램입니다.
Ftrl FTRL 알고리즘을 구현하는 최적화 프로그램입니다.
경사하강법 기본 확률적 경사하강법 최적화 프로그램.
기세 확률적 경사하강법과 모멘텀(네스테로프 또는 전통).
나담 NAdam 알고리즘을 구현한 Nadam Optimizer입니다.
옵티마이저 그래디언트 최적화 프로그램의 기본 클래스입니다.
Optimizer.GradAndVar <T는 TType을 확장합니다.> 한 쌍의 그래디언트와 변수를 보유하는 클래스입니다.
최적화 프로그램.옵션 Optimizer 의 선택적 속성
RMSProp RMSProp 알고리즘을 구현하는 최적화 프로그램입니다.

열거형

옵티마이저 기본 매개변수를 사용하여 새 최적화 프로그램을 만드는 데 사용되는 열거자입니다.