پارامترهای جاسازی Adadelta را با پشتیبانی از اشکال زدایی بازیابی کنید.
عملیاتی که پارامترهای بهینه سازی را از جاسازی در حافظه میزبان بازیابی می کند. باید قبل از آن یک عملیات ConfigureTPUEmbeddingHost باشد که پیکربندی صحیح جدول جاسازی را تنظیم می کند. به عنوان مثال، این عملیات برای بازیابی پارامترهای به روز شده قبل از ذخیره یک چک پوینت استفاده می شود.
کلاس های تو در تو
کلاس | RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | ویژگی های اختیاری برای RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug |
روش های عمومی
خروجی <Float> | آکومولاتورها () انباشته کننده های پارامتر به روز شده توسط الگوریتم بهینه سازی Adadelta. |
بازیابی استاتیکTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | پیکربندی (پیکربندی رشته) |
Static RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug | ایجاد (حوزه دامنه ، NumShards طولانی، Long shardId، گزینهها... گزینهها) روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug جدید را بسته بندی می کند. |
خروجی <Float> | gradient accumulators () پارامتر gradient_accumulators بهروزرسانی شده توسط الگوریتم بهینهسازی Adadelta. |
خروجی <Float> | مولفه های () پارامترهای پارامتر توسط الگوریتم بهینه سازی Adadelta به روز شده است. |
بازیابی استاتیکTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | tableId (Long tableId) |
بازیابی استاتیکTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | tableName (رشته جدولName) |
خروجی <Float> | به روز رسانی () به روز رسانی پارامترها توسط الگوریتم بهینه سازی Adadelta. |
روش های ارثی
روش های عمومی
آکومولاتورهای خروجی عمومی <Float> ()
انباشته کننده های پارامتر به روز شده توسط الگوریتم بهینه سازی Adadelta.
عمومی static RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug ایجاد (حوزه دامنه ، NumShards طولانی، Long shardId، گزینهها... گزینهها)
روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug
خروجی عمومی <Float> gradientAccumulators ()
پارامتر gradient_accumulators بهروزرسانی شده توسط الگوریتم بهینهسازی Adadelta.
پارامترهای خروجی عمومی <Float> ()
پارامترهای پارامتر توسط الگوریتم بهینه سازی Adadelta به روز شده است.