public struct ParameterGroupOptimizerBuilder
يبني ParameterGroupOptimizer
. ويستخدم هذا بشكل أساسي على مستوى وزن واحد في النموذج. يحدد التعيين من مجموعات المعلمات المحددة بواسطة ( [Bool]
إلى ParameterGroupOptimizer) المحسن النهائي.
تصريح
public init()
تصريح
public mutating mutating func makeParameter(_ name: String, _ value: Float) -> GlobalAccessor
تصريح
public subscript(global: GlobalAccessor) -> Float { get }
تصريح
public subscript(state name: String) -> StateAccessor { mutating get }
تصريح
public subscript(local name: String) -> LocalAccessor { mutating get }
إلحاق رد اتصال بقائمة عمليات الاسترجاعات.
تصريح
public mutating mutating func appendCallback(_ cb: @escaping OptimizerCallback)
إرجاع المحسن ومسح المنشئ.
تصريح
public mutating mutating func makeOptimizer() -> ParameterGroupOptimizer
يطبق sgdStep مع الزخم على تحسين مجموعة المعلمات الحالية.
تصريح
public mutating func sgdStep( nesterov: Bool, mom: GlobalAccessor, lr: GlobalAccessor, velocity: StateAccessor )
يحسب نسبة الثقة المقطوعة (المستخدمة في LARS).
تصريح
public mutating func clippedTrustRatio( trustCoefficient: GlobalAccessor, epsilon: GlobalAccessor, weightDecay: GlobalAccessor ) -> LocalAccessor
يقيس التدرج بنسبة الثقة (المستخدمة في LARS).
تصريح
public mutating mutating func scaleGradByTrustRatio(trustRatio: LocalAccessor)
يطبق مقياس تسوس الوزن على التدرج.
تصريح
public mutating mutating func scaleGradient(byWeightDecay weightDecay: GlobalAccessor)
إعادة حساب معلمة السرعة بناءً على التدرج الجديد (الذي يتم قياسه حسب معدل التعلم).
تصريح
public mutating func updateVelocity( mom: GlobalAccessor, lr: GlobalAccessor, velocity: StateAccessor )