RetrieveTPUEmbeddingADAMParametersGradAccumDebug

کلاس نهایی عمومی RetrieveTPUEmbeddingADAMParametersGradAccumDebug

بازیابی پارامترهای جاسازی ADAM با پشتیبانی از اشکال زدایی.

عملیاتی که پارامترهای بهینه سازی را از جاسازی در حافظه میزبان بازیابی می کند. باید قبل از آن یک عملیات ConfigureTPUEmbeddingHost باشد که پیکربندی صحیح جدول جاسازی را تنظیم می کند. به عنوان مثال، این عملیات برای بازیابی پارامترهای به روز شده قبل از ذخیره یک چک پوینت استفاده می شود.

کلاس های تو در تو

کلاس بازیابیTPUEmbeddingADAMParametersGradAccumDebug.Options ویژگی های اختیاری برای RetrieveTPUEmbeddingADAMParametersGradAccumDebug

روش های عمومی

بازیابی استاتیکTPUEmbeddingADAMParametersGradAccumDebug.Options
پیکربندی (پیکربندی رشته)
Static RetrieveTPUEmbeddingADAMParametersGradAccumDebug
ایجاد (حوزه دامنه ، NumShards طولانی، Long shardId، گزینه‌ها... گزینه‌ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingADAMParametersGradAccumDebug جدید را بسته بندی می کند.
خروجی <Float>
gradient accumulators ()
پارامتر gradient_accumulators به ​​روز شده توسط الگوریتم بهینه سازی ADAM.
خروجی <Float>
لحظه ()
پارامتر لحظه ای به روز شده توسط الگوریتم بهینه سازی ADAM.
خروجی <Float>
مولفه های ()
پارامترهای پارامتر توسط الگوریتم بهینه سازی ADAM به روز شده است.
بازیابی استاتیکTPUEmbeddingADAMParametersGradAccumDebug.Options
tableId (Long tableId)
بازیابی استاتیکTPUEmbeddingADAMParametersGradAccumDebug.Options
tableName (رشته جدولName)
خروجی <Float>
سرعت ها ()
سرعت های پارامتر به روز شده توسط الگوریتم بهینه سازی ADAM.

روش های ارثی

روش های عمومی

بازیابی عمومی ثابت بازیابیTPUEmbeddingADAMParametersGradAccumDebug.Options پیکربندی (پیکربندی رشته)

عمومی static RetrieveTPUEmbeddingADAMParametersGradAccumDebug ایجاد (حوزه دامنه ، NumShards طولانی، ShardId طولانی، گزینه‌ها... گزینه‌ها)

روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingADAMParametersGradAccumDebug جدید را بسته بندی می کند.

مولفه های
محدوده محدوده فعلی
گزینه ها مقادیر ویژگی های اختیاری را حمل می کند
برمی گرداند
  • یک نمونه جدید از RetrieveTPUEmbeddingADAMParametersGradAccumDebug

خروجی عمومی <Float> gradientAccumulators ()

پارامتر gradient_accumulators به ​​روز شده توسط الگوریتم بهینه سازی ADAM.

خروجی عمومی <Float> لحظه ای ()

پارامتر لحظه ای به روز شده توسط الگوریتم بهینه سازی ADAM.

پارامترهای خروجی عمومی <Float> ()

پارامترهای پارامتر توسط الگوریتم بهینه سازی ADAM به روز شده است.

عمومی static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (Long tableId)

بازیابی استاتیک عمومیTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (رشته جدولName)

سرعت های خروجی عمومی <Float> ()

سرعت های پارامتر به روز شده توسط الگوریتم بهینه سازی ADAM.