ResourceSparseApplyAdagradDa

lớp cuối cùng công khai ResourceSparseApplyAdagradDa

Cập nhật các mục trong '*var' và '*accum' theo sơ đồ adagrad gần nhất.

Các lớp lồng nhau

lớp học ResourceSparseApplyAdagradDa.Options Thuộc tính tùy chọn cho ResourceSparseApplyAdagradDa

Hằng số

Sợi dây OP_NAME Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Phương pháp công khai

tĩnh <T mở rộng TType > ResourceSparseApplyAdagradDa
tạo ( Phạm vi phạm vi, Toán hạng <?> var, Toán hạng <?> gradientAccumulator, Toán hạng <?> gradientSquaredAccumulator, Toán hạng <T> grad, Toán hạng <? mở rộng TNumber > chỉ số, Toán hạng <T> lr, Toán hạng <T> l1, Toán hạng <T> l2, Toán hạng < TInt64 > GlobalStep, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một hoạt động ResourceSparseApplyAdagradDa mới.
tĩnh ResourceSparseApplyAdagradDa.Options
useLocking (Boolean useLocking)

Phương pháp kế thừa

Hằng số

Chuỗi cuối cùng tĩnh công khai OP_NAME

Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Giá trị không đổi: "ResourceSparseApplyAdagradDA"

Phương pháp công khai

public static ResourceSparseApplyAdagradDa tạo ( Phạm vi phạm vi , Toán hạng <?> var, Toán hạng <?> gradientAccumulator, Toán hạng <?> gradientSquaredAccumulator, Toán hạng <T> grad, Toán hạng <? mở rộng TNumber > chỉ số, Toán hạng <T> lr, Toán hạng <T> l1, Toán hạng <T> l2, Toán hạng < TInt64 > GlobalStep, Tùy chọn... tùy chọn)

Phương thức gốc để tạo một lớp bao bọc một hoạt động ResourceSparseApplyAdagradDa mới.

Thông số
phạm vi phạm vi hiện tại
var Phải từ một Biến().
gradientTích lũy Phải từ một Biến().
gradientBình phươngTích lũy Phải từ một Biến().
tốt nghiệp Độ dốc.
chỉ số Một vectơ chỉ số theo chiều thứ nhất của var và accum.
lr Tỷ lệ học. Phải là một vô hướng.
l1 Chính quy hóa L1. Phải là một vô hướng.
l2 Chính quy hóa L2. Phải là một vô hướng.
toàn cầuStep Số bước đào tạo Phải là một vô hướng.
tùy chọn mang các giá trị thuộc tính tùy chọn
Trả lại
  • một phiên bản mới của ResourceSparseApplyAdagradDa

public static ResourceSparseApplyAdagradDa.Options useLocking (Boolean useLocking)

Thông số
sử dụngKhóa Nếu Đúng, việc cập nhật các tensor var và accum sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn.