org.tensorflow.op.train

کلاس ها

AccumulatorApplyGradient یک گرادیان را به یک انباشتگر معین اعمال می کند.
AccumulatorNumAccumulated تعداد گرادیان های جمع شده در انباشته های داده شده را برمی گرداند.
AccumulatorSetGlobalStep Acumulator را با یک مقدار جدید برای global_step به روز می کند.
AccumulatorTakeGradient <T TType را گسترش می دهد > گرادیان متوسط ​​را در ConditionalAccumulator داده شده استخراج می کند.
ApplyAdadelta <T گسترش TType > "*var" را طبق طرح adadelta به روز کنید.
ApplyAdadelta.Options ویژگی های اختیاری برای ApplyAdadelta
ApplyAdagrad <T گسترش TType > "*var" را طبق طرح adagrad به روز کنید.
ApplyAdagrad.Options ویژگی های اختیاری برای ApplyAdagrad
ApplyAdagradDa <T TType را گسترش می دهد > "*var" را طبق طرح آداگراد پروگزیمال به روز کنید.
ApplyAdagradDa.Options ویژگی های اختیاری برای ApplyAdagradDa
ApplyAdagradV2 <T TType را گسترش می دهد > "*var" را طبق طرح adagrad به روز کنید.
ApplyAdagradV2.Options ویژگی های اختیاری برای ApplyAdagradV2
ApplyAdam <T گسترش TType > "*var" را طبق الگوریتم Adam به روز کنید.
ApplyAdam.Options ویژگی های اختیاری برای ApplyAdam
ApplyAdaMax <T TType را گسترش می دهد > "*var" را طبق الگوریتم AdaMax به روز کنید.
ApplyAdaMax.Options ویژگی های اختیاری برای ApplyAdaMax
ApplyAddSign <T گسترش TType > "*var" را مطابق به روز رسانی AddSign به روز کنید.
ApplyAddSign.Options ویژگی های اختیاری برای ApplyAddSign
ApplyCenteredRmsProp <T TType > را گسترش می دهد "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید.
ApplyCenteredRmsProp.Options ویژگی های اختیاری برای ApplyCenteredRmsProp
ApplyFtrl <T TType را گسترش می دهد > "*var" را طبق طرح Ftrl-proximal به روز کنید.
ApplyFtrl.Options ویژگی های اختیاری برای ApplyFtrl
ApplyGradientDescent <T TType را گسترش می دهد > «*var» را با کم کردن «alpha» * «delta» از آن به‌روزرسانی کنید.
ApplyGradientDescent.Options ویژگی های اختیاری برای ApplyGradientDescent
ApplyMomentum <T TType را گسترش می دهد > "*var" را مطابق طرح حرکت به روز کنید.
ApplyMomentum.Options ویژگی های اختیاری برای ApplyMomentum
ApplyPowerSign <T TType را گسترش می دهد > "*var" را مطابق به روز رسانی AddSign به روز کنید.
ApplyPowerSign.Options ویژگی های اختیاری برای ApplyPowerSign
ApplyProximalAdagrad <T گسترش TType > «*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad به‌روزرسانی کنید.
ApplyProximalAdagrad.Options ویژگی های اختیاری برای ApplyProximalAdagrad
ApplyProximalGradientDescent <T TType را گسترش می دهد "*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید.
ApplyProximalGradientDescent.Options ویژگی های اختیاری برای ApplyProximalGradientDescent
ApplyRmsProp <T TType > را گسترش می دهد "*var" را طبق الگوریتم RMSProp به روز کنید.
ApplyRmsProp.Options ویژگی های اختیاری برای ApplyRmsProp
BatchMatMul <T TType > را گسترش می دهد برش های دو تانسور را به صورت دسته ای ضرب می کند.
BatchMatMul.Options ویژگی های اختیاری برای BatchMatMul
ComputeBatchSize اندازه دسته ایستا یک مجموعه داده بدون دسته های جزئی را محاسبه می کند.
Conditional Accumulator یک انباشته شرطی برای تجمیع گرادیان ها.
ConditionalAccumulator.Options ویژگی های اختیاری برای ConditionalAccumulator
GenerateVocabRemapping با دادن مسیری به فایل‌های واژگان جدید و قدیمی، یک Remapping Tensor از را برمی‌گرداند

طول «num_new_vocab»، جایی که «remapping[i]» حاوی شماره ردیف در واژگان قدیمی است که مربوط به ردیف «i» در واژگان جدید است (شروع از خط «new_vocab_offset» و تا «num_new_vocab» موجودیت‌ها)، یا «- 1` اگر ورودی «i» در واژگان جدید در واژگان قدیمی نباشد.

GenerateVocabRemapping.Options ویژگی های اختیاری برای GenerateVocabRemapping
MergeV2Checkpoints فرمت خاص V2: فایل های ابرداده ایست های بازرسی خرد شده را ادغام می کند.
MergeV2Checkpoints.Options ویژگی های اختیاری برای MergeV2Checkpoints
NegTrain آموزش از طریق نمونه گیری منفی
PreventGradient <T TType را گسترش می دهد یک عملیات هویتی که در صورت درخواست گرادیان، خطا را ایجاد می کند.
PreventGradient.Options ویژگی های اختیاری برای PreventGradient
ResourceAccumulatorApplyGradient یک گرادیان را به یک انباشتگر معین اعمال می کند.
ResourceAccumulatorNumAccumulated تعداد گرادیان های جمع شده در انباشته های داده شده را برمی گرداند.
ResourceAccumulatorSetGlobalStep Acumulator را با یک مقدار جدید برای global_step به روز می کند.
ResourceAccumulatorTakeGradient <T گسترش TType > گرادیان متوسط ​​را در ConditionalAccumulator داده شده استخراج می کند.
ResourceApplyAdadelta "*var" را طبق طرح adadelta به روز کنید.
ResourceApplyAdadelta.Options ویژگی های اختیاری برای ResourceApplyAdadelta
ResourceApplyAdagrad "*var" را طبق طرح adagrad به روز کنید.
ResourceApplyAdagrad.Options ویژگی های اختیاری برای ResourceApplyAdagrad
ResourceApplyAdagradDa "*var" را طبق طرح آداگراد پروگزیمال به روز کنید.
ResourceApplyAdagradDa.Options ویژگی های اختیاری برای ResourceApplyAdagradDa
ResourceApplyAdam "*var" را طبق الگوریتم Adam به روز کنید.
ResourceApplyAdam.Options ویژگی های اختیاری برای ResourceApplyAdam
ResourceApplyAdaMax "*var" را طبق الگوریتم AdaMax به روز کنید.
ResourceApplyAdaMax.Options ویژگی های اختیاری برای ResourceApplyAdaMax
ResourceApplyAdamWithAmsgrad "*var" را طبق الگوریتم Adam به روز کنید.
ResourceApplyAdamWithAmsgrad.Options ویژگی های اختیاری برای ResourceApplyAdamWithAmsgrad
ResourceApplyAddSign "*var" را مطابق به روز رسانی AddSign به روز کنید.
ResourceApplyAddSign.Options ویژگی های اختیاری برای ResourceApplyAddSign
ResourceApplyCenteredRmsProp "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید.
ResourceApplyCenteredRmsProp.Options ویژگی های اختیاری برای ResourceApplyCenteredRmsProp
ResourceApplyFtrl "*var" را طبق طرح Ftrl-proximal به روز کنید.
ResourceApplyFtrl.Options ویژگی های اختیاری برای ResourceApplyFtrl
ResourceApplyGradientDescent «*var» را با کم کردن «alpha» * «delta» از آن به‌روزرسانی کنید.
ResourceApplyGradientDescent.Options ویژگی های اختیاری برای ResourceApplyGradientDescent
ResourceApplyKerasMomentum "*var" را مطابق طرح حرکت به روز کنید.
ResourceApplyKerasMomentum.Options ویژگی های اختیاری برای ResourceApplyKerasMomentum
ResourceApplyMomentum "*var" را مطابق طرح حرکت به روز کنید.
ResourceApplyMomentum.Options ویژگی های اختیاری برای ResourceApplyMomentum
ResourceApplyPowerSign "*var" را مطابق به روز رسانی AddSign به روز کنید.
ResourceApplyPowerSign.Options ویژگی های اختیاری برای ResourceApplyPowerSign
ResourceApplyProximalAdagrad «*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad به‌روزرسانی کنید.
ResourceApplyProximalAdagrad.Options ویژگی های اختیاری برای ResourceApplyProximalAdagrad
ResourceApplyProximalGradientDescent "*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید.
ResourceApplyProximalGradientDescent.Options ویژگی های اختیاری برای ResourceApplyProximalGradientDescent
ResourceApplyRmsProp "*var" را طبق الگوریتم RMSProp به روز کنید.
ResourceApplyRmsProp.Options ویژگی های اختیاری برای ResourceApplyRmsProp
منبع Conditional Accumulator یک انباشته شرطی برای تجمیع گرادیان ها.
ResourceConditionalAccumulator.Options ویژگی های اختیاری برای ResourceConditionalAccumulator
ResourceSparseApplyAdadelta var: باید از یک متغیر () باشد.
ResourceSparseApplyAdadelta.Options ویژگی های اختیاری برای ResourceSparseApplyAdadelta
ResourceSparseApplyAdagrad طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید.
ResourceSparseApplyAdagrad.Options ویژگی های اختیاری برای ResourceSparseApplyAdagrad
ResourceSparseApplyAdagradDa ورودی‌های «*var» و «*accum» را طبق طرح آداگراد پروگزیمال به‌روزرسانی کنید.
ResourceSparseApplyAdagradDa.Options ویژگی های اختیاری برای ResourceSparseApplyAdagradDa
ResourceSparseApplyAdagradV2 طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید.
ResourceSparseApplyAdagradV2.Options ویژگی های اختیاری برای ResourceSparseApplyAdagradV2
ResourceSparseApplyCenteredRmsProp "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید.
ResourceSparseApplyCenteredRmsProp.Options ویژگی های اختیاری برای ResourceSparseApplyCenteredRmsProp
ResourceSparseApplyFtrl ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید.
ResourceSparseApplyFtrl.Options ویژگی های اختیاری برای ResourceSparseApplyFtrl
ResourceSparseApplyKerasMomentum طبق طرح حرکت، ورودی‌های مربوطه را در «*var» و «*accum» به‌روزرسانی کنید.
ResourceSparseApplyKerasMomentum.Options ویژگی های اختیاری برای ResourceSparseApplyKerasMomentum
ResourceSparseApplyMomentum طبق طرح حرکت، ورودی‌های مربوطه را در «*var» و «*accum» به‌روزرسانی کنید.
ResourceSparseApplyMomentum.Options ویژگی های اختیاری برای ResourceSparseApplyMomentum
ResourceSparseApplyProximalAdagrad ورودی های به روز رسانی پراکنده در '*var' و '*accum' طبق الگوریتم FOBOS.
ResourceSparseApplyProximalAdagrad.Options ویژگی های اختیاری برای ResourceSparseApplyProximalAdagrad
ResourceSparseApplyProximalGradientDescent به‌روزرسانی پراکنده '*var' به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت.
ResourceSparseApplyProximalGradientDescent.Options ویژگی های اختیاری برای ResourceSparseApplyProximalGradientDescent
ResourceSparseApplyRmsProp "*var" را طبق الگوریتم RMSProp به روز کنید.
ResourceSparseApplyRmsProp.Options ویژگی های اختیاری برای ResourceSparseApplyRmsProp
بازگرداندن تانسورها را از یک ایست بازرسی V2 بازیابی می کند.
RestoreSlice <T TType را گسترش می دهد > یک تانسور را از فایل های ایست بازیابی بازیابی می کند.
RestoreSlice.Options ویژگی های اختیاری برای RestoreSlice
صرفه جویی تانسورها را در فرمت ایست بازرسی V2 ذخیره می کند.
SaveSlices برش های تانسور ورودی را روی دیسک ذخیره می کند.
SdcaFprint اثر انگشت رشته های ورودی را محاسبه می کند.
SdcaOptimizer نسخه توزیع شده از بهینه ساز تصادفی دو مختصات صعودی (SDCA) برای

مدل های خطی با تنظیم L1 + L2.

SdcaOptimizer.Options ویژگی های اختیاری برای SdcaOptimizer
SdcaShrinkL1 مرحله کوچک شدن منظم سازی L1 را روی پارامترها اعمال می کند.
SparseApplyAdadelta <T گسترش TType > var: باید از یک متغیر () باشد.
SparseApplyAdadelta.Options ویژگی های اختیاری برای SparseApplyAdadelta
SparseApplyAdagrad <T TType را گسترش می دهد طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید.
SparseApplyAdagrad.Options ویژگی های اختیاری برای SparseApplyAdagrad
SparseApplyAdagradDa <T TType را گسترش می دهد ورودی‌های «*var» و «*accum» را طبق طرح آداگراد پروگزیمال به‌روزرسانی کنید.
SparseApplyAdagradDa.Options ویژگی های اختیاری برای SparseApplyAdagradDa
SparseApplyCenteredRmsProp <T TType > را گسترش می دهد "*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید.
SparseApplyCenteredRmsProp.Options ویژگی های اختیاری برای SparseApplyCenteredRmsProp
SparseApplyFtrl <T TType را گسترش می دهد > ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید.
SparseApplyFtrl.Options ویژگی های اختیاری برای SparseApplyFtrl
SparseApplyMomentum <T TType را گسترش می دهد > طبق طرح حرکت، ورودی‌های مربوطه را در «*var» و «*accum» به‌روزرسانی کنید.
SparseApplyMomentum.Options ویژگی های اختیاری برای SparseApplyMomentum
SparseApplyProximalAdagrad <T TType را گسترش می دهد ورودی های به روز رسانی پراکنده در '*var' و '*accum' طبق الگوریتم FOBOS.
SparseApplyProximalAdagrad.Options ویژگی های اختیاری برای SparseApplyProximalAdagrad
SparseApplyProximalGradientDescent <T TType را گسترش می دهد به‌روزرسانی پراکنده '*var' به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت.
SparseApplyProximalGradientDescent.Options ویژگی های اختیاری برای SparseApplyProximalGradientDescent
SparseApplyRmsProp <T TType > را گسترش می دهد "*var" را طبق الگوریتم RMSProp به روز کنید.
SparseApplyRmsProp.Options ویژگی های اختیاری برای SparseApplyRmsProp
TileGrad <T گسترش TType > گرادیان «کاشی» را برمی‌گرداند.