ApplyProximalAdagrad

공개 최종 클래스 ApplyProximalAdagrad

Adagrad 학습률을 사용하여 FOBOS에 따라 '*var' 및 '*accum'을 업데이트합니다.

accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}

중첩 클래스

수업 ApplyProximalAdagrad.옵션 ApplyProximalAdagrad 의 선택적 속성

상수

OP_NAME TensorFlow 코어 엔진에서 알려진 이 작업의 이름

공개 방법

출력 <T>
출력 ()
텐서의 기호 핸들을 반환합니다.
static <T는 TType을 확장합니다. > ApplyProximalAdagrad <T>
생성 ( 범위 범위, 피연산자 <T> var, 피연산자 <T> accum, 피연산자 <T> lr, 피연산자 <T> l1, 피연산자 <T> l2, 피연산자 <T> grad, 옵션... 옵션)
새로운 ApplyProximalAdagrad 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
출력 <T>
밖으로 ()
"var"와 동일합니다.
정적 ApplyProximalAdagrad.Options
useLocking (부울 useLocking)

상속된 메서드

상수

공개 정적 최종 문자열 OP_NAME

TensorFlow 코어 엔진에서 알려진 이 작업의 이름

상수 값: "ApplyProximalAdagrad"

공개 방법

공개 출력 <T> asOutput ()

텐서의 기호 핸들을 반환합니다.

TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.

public static ApplyProximalAdagrad <T> create ( Scope 범위, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Options.. . 옵션)

새로운 ApplyProximalAdagrad 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

매개변수
범위 현재 범위
var Variable()에서 가져와야 합니다.
축적 Variable()에서 가져와야 합니다.
배율 인수. 스칼라여야 합니다.
l1 L1 정규화. 스칼라여야 합니다.
l2 L2 정규화. 스칼라여야 합니다.
졸업생 그라데이션입니다.
옵션 선택적 속성 값을 전달합니다.
보고
  • ApplyProximalAdagrad의 새로운 인스턴스

공개 출력 <T> 출력 ()

"var"와 동일합니다.

공개 정적 ApplyProximalAdagrad.Options useLocking (부울 useLocking)

매개변수
사용잠금 True인 경우 var 및 accum 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다.