org.tensorflow.framework.optimizers

Các lớp học

AdaDelta Trình tối ưu hóa thực hiện thuật toán Adadelta.
AdaGrad Trình tối ưu hóa thực hiện thuật toán Adagrad.
AdaGradDA Trình tối ưu hóa triển khai thuật toán Trung bình kép Adagrad.
Adam Trình tối ưu hóa thực hiện thuật toán Adam.
Adamax Trình tối ưu hóa thực hiện thuật toán Adamax.
Ftrl Trình tối ưu hóa thực hiện thuật toán FTRL.
Xuống dốc Trình tối ưu hóa giảm độ dốc ngẫu nhiên cơ bản.
Quán tính Độ dốc giảm dần ngẫu nhiên cộng với động lượng, lồng nhau hoặc truyền thống.
Nadam Trình tối ưu hóa Nadam thực hiện thuật toán NAdam.
Trình tối ưu hóa Lớp cơ sở cho trình tối ưu hóa độ dốc.
Trình tối ưu hóa.GradAndVar <T mở rộng TType > Một lớp chứa một cặp gradient và một biến.
Trình tối ưu hóa.Options Thuộc tính tùy chọn cho Optimizer
RMSProp Trình tối ưu hóa thực hiện thuật toán RMSProp.

Enum

Trình tối ưu hóa Trình liệt kê được sử dụng để tạo Trình tối ưu hóa mới với các tham số mặc định.