ApplyAdaMax

공개 최종 수업 ApplyAdaMax

AdaMax 알고리즘에 따라 '*var'를 업데이트합니다.

m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) 변수 <- 변수 - learning_rate / (1 - beta1^ t) * m_t / (v_t + 엡실론)

중첩 클래스

수업 ApplyAdaMax.옵션 ApplyAdaMax 의 선택적 속성

상수

OP_NAME TensorFlow 코어 엔진에서 알려진 이 작업의 이름

공개 방법

출력 <T>
출력 ()
텐서의 기호 핸들을 반환합니다.
static <T는 TType을 확장합니다. > ApplyAdaMax <T>
create ( 범위 범위, 피연산자 <T> var, 피연산자 <T> m, 피연산자 <T> v, 피연산자 <T> beta1Power, 피연산자 <T> lr, 피연산자 <T> beta1, 피연산자 <T> beta2, 피연산자 <T > 엡실론, 피연산자 <T> grad, 옵션... 옵션)
새로운 ApplyAdaMax 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
출력 <T>
밖으로 ()
"var"와 동일합니다.
정적 ApplyAdaMax.Options
useLocking (부울 useLocking)

상속된 메서드

상수

공개 정적 최종 문자열 OP_NAME

TensorFlow 코어 엔진에서 알려진 이 작업의 이름

상수 값: "ApplyAdaMax"

공개 방법

공개 출력 <T> asOutput ()

텐서의 기호 핸들을 반환합니다.

TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.

public static ApplyAdaMax <T> create ( Scope 범위, Operand <T> var, Operand <T> m, Operand <T> v, Operand <T> beta1Power, Operand <T> lr, Operand <T> beta1, Operand <T > beta2, 피연산자 <T> 엡실론, 피연산자 <T> grad, 옵션... 옵션)

새로운 ApplyAdaMax 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

매개변수
범위 현재 범위
var Variable()에서 가져와야 합니다.
Variable()에서 가져와야 합니다.
V Variable()에서 가져와야 합니다.
베타1힘 스칼라여야 합니다.
배율 인수. 스칼라여야 합니다.
베타1 모멘텀 요인. 스칼라여야 합니다.
베타2 모멘텀 요인. 스칼라여야 합니다.
엡실론 능선 용어. 스칼라여야 합니다.
졸업생 그라데이션입니다.
옵션 선택적 속성 값을 전달합니다.
보고
  • ApplyAdaMax의 새로운 인스턴스

공개 출력 <T> 출력 ()

"var"와 동일합니다.

공개 정적 ApplyAdaMax.Options useLocking (부울 useLocking)

매개변수
사용잠금 'True'인 경우 var, m 및 v 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다.