Truy xuất các tham số nhúng RMSProp có hỗ trợ gỡ lỗi.
Một op lấy các tham số tối ưu hóa từ việc nhúng vào bộ nhớ máy chủ. Trước đó phải có op configureTPUEmbeddingHost để thiết lập cấu hình bảng nhúng chính xác. Ví dụ: op này được sử dụng để truy xuất các tham số đã cập nhật trước khi lưu điểm kiểm tra.
Các lớp lồng nhau
lớp học | Truy xuấtTPUEembeddingRMSPropParametersGradAccumDebug.Options | Các thuộc tính tùy chọn cho RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug |
Phương pháp công cộng
RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug.Options tĩnh | config (Cấu hình chuỗi) |
tĩnh RetrieveTPUEembeddingRMSPropParametersGradAccumDebug | tạo ( Phạm vi phạm vi, numShards dài, shardId dài, Tùy chọn... tùy chọn) Phương thức ban đầu để tạo một lớp bao gồm thao tác RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug mới. |
Đầu ra <Float> | gradient Tích lũy () Tham số gradient_accumulators được cập nhật bằng thuật toán tối ưu hóa RMSProp. |
Đầu ra <Float> | mẹ () Thông số mẹ được cập nhật bằng thuật toán tối ưu RMSProp. |
Đầu ra <Float> | bệnh đa xơ cứng () Thông số ms được cập nhật bằng thuật toán tối ưu hóa RMSProp. |
Đầu ra <Float> | thông số () Các tham số tham số được cập nhật bằng thuật toán tối ưu hóa RMSProp. |
RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug.Options tĩnh | tableId (Id bảng dài) |
RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug.Options tĩnh | tên bảng (Tên bảng chuỗi) |
Phương pháp kế thừa
Phương pháp công cộng
cấu hình tĩnh công khai RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug.Options (Cấu hình chuỗi)
tĩnh công khai RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug tạo (Phạm vi phạm vi , numShards dài, shardId dài, Tùy chọn... tùy chọn)
Phương thức ban đầu để tạo một lớp bao gồm thao tác RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug mới.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug
Đầu ra công khai <Float> gradientAccumulators ()
Tham số gradient_accumulators được cập nhật bằng thuật toán tối ưu hóa RMSProp.
tham số đầu ra công khai <Float> ()
Các tham số tham số được cập nhật bằng thuật toán tối ưu hóa RMSProp.