thưa thớtÁp dụngAdagradV2

lớp cuối cùng công khai SparseApplyAdagradV2

Cập nhật các mục có liên quan trong '*var' và '*accum' theo sơ đồ adagrad.

Đó là đối với các hàng chúng tôi có grad, chúng tôi cập nhật var và accum như sau:

$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$

Các lớp lồng nhau

lớp học SparseApplyAdagradV2.Options Thuộc tính tùy chọn cho SparseApplyAdagradV2

Phương pháp công khai

Đầu ra <T>
asOutput ()
Trả về phần điều khiển tượng trưng của một tenxơ.
tĩnh <T, U mở rộng Số> SparseApplyAdagradV2 <T>
tạo ( Phạm vi phạm vi, Toán hạng <T> var, Toán hạng <T> accum, Toán hạng <T> lr, Toán hạng <T> epsilon, Toán hạng <T> grad, Chỉ số toán hạng <U>, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một thao tác SparseApplyAdagradV2 mới.
Đầu ra <T>
ngoài ()
Tương tự như "var".
tĩnh SparseApplyAdagradV2.Options
updateSlots (Boolean updateSlots)
tĩnh SparseApplyAdagradV2.Options
useLocking (Boolean useLocking)

Phương pháp kế thừa

Phương pháp công khai

Đầu ra công khai <T> asOutput ()

Trả về phần điều khiển tượng trưng của một tenxơ.

Đầu vào của các hoạt động TensorFlow là đầu ra của một hoạt động TensorFlow khác. Phương pháp này được sử dụng để thu được một thẻ điều khiển mang tính biểu tượng đại diện cho việc tính toán đầu vào.

public static SparseApplyAdagradV2 <T> create ( Phạm vi phạm vi, Toán hạng <T> var, Toán hạng <T> accum, Toán hạng <T> lr, Toán hạng <T> epsilon, Toán hạng <T> grad, Toán hạng <U> chỉ số, Tùy chọn.. . tùy chọn)

Phương thức gốc để tạo một lớp bao bọc một thao tác SparseApplyAdagradV2 mới.

Thông số
phạm vi phạm vi hiện tại
var Phải từ một Biến().
tích lũy Phải từ một Biến().
lr Tỷ lệ học. Phải là một vô hướng.
epsilon Yếu tố không đổi. Phải là một vô hướng.
tốt nghiệp Độ dốc.
chỉ số Một vectơ chỉ số theo chiều thứ nhất của var và accum.
tùy chọn mang các giá trị thuộc tính tùy chọn
Trả lại
  • một phiên bản mới của SparseApplyAdagradV2

Đầu ra công khai <T> out ()

Tương tự như "var".

public static SparseApplyAdagradV2.Options updateSlots (Boolean updateSlots)

public static SparseApplyAdagradV2.Options useLocking (Boolean useLocking)

Thông số
sử dụngKhóa Nếu `True`, việc cập nhật các tensor var và accum sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn.