ApplyAdadelta

lớp cuối cùng công khai ApplyAdadelta

Cập nhật '*var' theo sơ đồ adadelta.

tích = rho() * tích + (1 - rho()) * grad.square(); cập nhật = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= cập nhật;

Các lớp lồng nhau

lớp học Áp dụngAdadelta.Options Thuộc tính tùy chọn cho ApplyAdadelta

Hằng số

Sợi dây OP_NAME Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Phương pháp công khai

Đầu ra <T>
asOutput ()
Trả về tay cầm tượng trưng của tensor.
tĩnh <T mở rộng TType > ApplyAdadelta <T>
tạo ( Phạm vi phạm vi, Toán hạng <T> var, Toán hạng <T> accum, Toán hạng <T> accumUpdate, Toán hạng <T> lr, Toán hạng <T> rho, Toán hạng <T> epsilon, Toán hạng <T> grad, Tùy chọn.. . tùy chọn)
Phương thức xuất xưởng để tạo một lớp bao bọc một thao tác ApplyAdadelta mới.
Đầu ra <T>
ngoài ()
Tương tự như "var".
tĩnh ApplyAdadelta.Options
useLocking (Boolean useLocking)

Phương pháp kế thừa

Hằng số

Chuỗi cuối cùng tĩnh công khai OP_NAME

Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Giá trị không đổi: "Áp dụngAdadelta"

Phương pháp công khai

Đầu ra công khai <T> asOutput ()

Trả về tay cầm tượng trưng của tensor.

Đầu vào của các hoạt động TensorFlow là đầu ra của một hoạt động TensorFlow khác. Phương pháp này được sử dụng để thu được một thẻ điều khiển mang tính biểu tượng đại diện cho việc tính toán đầu vào.

public static ApplyAdadelta <T> tạo ( Phạm vi phạm vi, Toán hạng <T> var, Toán hạng <T> accum, Toán hạng <T> accumUpdate, Toán hạng <T> lr, Toán hạng <T> rho, Toán hạng <T> epsilon, Toán hạng <T > cấp độ, Tùy chọn... tùy chọn)

Phương thức xuất xưởng để tạo một lớp bao bọc một thao tác ApplyAdadelta mới.

Thông số
phạm vi phạm vi hiện tại
var Phải từ một Biến().
tích lũy Phải từ một Biến().
tích lũyCập nhật Phải từ một Biến().
lr Yếu tố nhân rộng. Phải là một vô hướng.
rho Yếu tố suy giảm. Phải là một vô hướng.
epsilon Yếu tố không đổi. Phải là một vô hướng.
tốt nghiệp Độ dốc.
tùy chọn mang các giá trị thuộc tính tùy chọn
Trả lại
  • một phiên bản mới của ApplyAdadelta

Đầu ra công khai <T> out ()

Tương tự như "var".

public static ApplyAdadelta.Options useLocking (Boolean useLocking)

Thông số
sử dụngKhóa Nếu Đúng, việc cập nhật các tensor var, accum và update_accum sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn.