ResourceSparseApplyAdagradV2

공개 최종 클래스 ResourceSparseApplyAdagradV2

adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다.

이는 grad가 있는 행에 대해 다음과 같이 var 및 accum을 업데이트합니다. accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

중첩 클래스

수업 ResourceSparseApplyAdagradV2.Options ResourceSparseApplyAdagradV2 의 선택적 속성

상수

OP_NAME TensorFlow 코어 엔진에서 알려진 이 작업의 이름

공개 방법

static <T는 TType을 확장합니다. > ResourceSparseApplyAdagradV2
생성 ( 범위 범위, 피연산자 <?> var, 피연산자 <?> accum, 피연산자 <T> lr, 피연산자 <T> 엡실론, 피연산자 <T> grad, 피연산자 <? 확장 TNumber > 인덱스, 옵션... 옵션)
새로운 ResourceSparseApplyAdagradV2 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
정적 ResourceSparseApplyAdagradV2.Options
updateSlots (부울 updateSlots)
정적 ResourceSparseApplyAdagradV2.Options
useLocking (부울 useLocking)

상속된 메서드

상수

공개 정적 최종 문자열 OP_NAME

TensorFlow 코어 엔진에서 알려진 이 작업의 이름

상수 값: "ResourceSparseApplyAdagradV2"

공개 방법

public static ResourceSparseApplyAdagradV2 create ( 범위 범위, 피연산자 <?> var, 피연산자 <?> accum, 피연산자 <T> lr, 피연산자 <T> 엡실론, 피연산자 <T> grad, 피연산자 <? 확장 TNumber > 인덱스, 옵션... 옵션)

새로운 ResourceSparseApplyAdagradV2 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

매개변수
범위 현재 범위
var Variable()에서 가져와야 합니다.
축적 Variable()에서 가져와야 합니다.
학습률. 스칼라여야 합니다.
엡실론 상수 요소. 스칼라여야 합니다.
졸업생 그라데이션입니다.
지수 var 및 accum의 첫 번째 차원에 대한 인덱스 벡터입니다.
옵션 선택적 속성 값을 전달합니다.
보고
  • ResourceSparseApplyAdagradV2의 새 인스턴스

공개 정적 ResourceSparseApplyAdagradV2.Options updateSlots (부울 updateSlots)

공개 정적 ResourceSparseApplyAdagradV2.Options useLocking (부울 useLocking)

매개변수
사용잠금 'True'인 경우 var 및 accum 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다.