LoadTPUEmbeddingADAMParametersGradAccumDebug

کلاس نهایی عمومی LoadTPUEmbeddingADAMParametersGradAccumDebug

بارگذاری پارامترهای جاسازی ADAM با پشتیبانی از اشکال زدایی.

عملیاتی که پارامترهای بهینه سازی را برای جاسازی در HBM بارگذاری می کند. باید قبل از آن یک عملیات ConfigureTPUEmbeddingHost باشد که پیکربندی صحیح جدول جاسازی را تنظیم می کند. به عنوان مثال، این عملیات برای نصب پارامترهایی استفاده می شود که قبل از اجرای یک حلقه آموزشی از یک نقطه بازرسی بارگذاری می شوند.

کلاس های تو در تو

کلاس LoadTPUEmbeddingADAMParametersGradAccumDebug.Options ویژگی های اختیاری برای LoadTPUEmbeddingADAMParametersGradAccumDebug

ثابت ها

رشته OP_NAME نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

روش های عمومی

استاتیک LoadTPUEmbeddingADAMParametersGradAccumDebug.Options
پیکربندی (پیکربندی رشته)
استاتیک LoadTPUEmbeddingADAMParametersGradAccumDebug
ایجاد ( scope scope، Operand < TFloat32 > پارامترها، Operand < TFloat32 > momenta، Operand < TFloat32 > سرعت ها، Operand < TFloat32 > gradientAccumulators، Long numShards، Long shardId، Options... گزینه ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات جدید LoadTPUEmbeddingADAMParametersGradAccumDebug را بسته بندی می کند.
استاتیک LoadTPUEmbeddingADAMParametersGradAccumDebug.Options
tableId (Long tableId)
استاتیک LoadTPUEmbeddingADAMParametersGradAccumDebug.Options
tableName (رشته جدولName)

روش های ارثی

ثابت ها

رشته نهایی ثابت عمومی OP_NAME

نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود

مقدار ثابت: "LoadTPUEmbeddingADAMParametersGradAccumDebug"

روش های عمومی

بارگذاری استاتیک عمومی LoadTPUEmbeddingADAMParametersGradAccumDebug.Options پیکربندی (پیکربندی رشته)

استاتیک عمومی LoadTPUEmbeddingADAMParametersGradAccumDebug ایجاد ( دامنه دامنه ، عملوند < TFloat32 > پارامترها، عملوند < TFloat32 > لحظه ای، عملوند < TFloat32 > سرعت ها، عملوند < TFloat32 > gradientAccumulators، گزینه های LongardI، Longs ...

روش کارخانه برای ایجاد کلاسی که یک عملیات جدید LoadTPUEmbeddingADAMParametersGradAccumDebug را بسته بندی می کند.

مولفه های
محدوده محدوده فعلی
مولفه های مقدار پارامترهای مورد استفاده در الگوریتم بهینه سازی ADAM.
لحظه ای مقدار لحظه استفاده شده در الگوریتم بهینه سازی ADAM.
سرعت ها مقدار سرعت های مورد استفاده در الگوریتم بهینه سازی ADAM.
gradient accumulators مقدار gradient_accumulators استفاده شده در الگوریتم بهینه سازی ADAM.
گزینه ها مقادیر ویژگی های اختیاری را حمل می کند
برمی گرداند
  • یک نمونه جدید از LoadTPUEmbeddingADAMParametersGradAccumDebug

استاتیک عمومی LoadTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (Long tableId)

استاتیک عمومی LoadTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (String tableName)