QuantizedBatchNormWithGlobalNormalization

공개 최종 클래스 QuantizedBatchNormWithGlobalNormalization

양자화된 배치 정규화.

이 작업은 더 이상 사용되지 않으며 향후 제거될 예정입니다. tf.nn.batch_normalization 선호하세요.

상수

OP_NAME TensorFlow 코어 엔진에서 알려진 이 작업의 이름

공개 방법

static <U는 TType을 확장하고 T는 TType을 확장합니다. > QuantizedBatchNormWithGlobalNormalization <U>
생성 ( 범위 범위, 피연산자 <T> t, 피연산자 < TFloat32 > tMin, 피연산자 < TFloat32 > tMax, 피연산자 <T> m, 피연산자 < TFloat32 > mMin, 피연산자 < TFloat32 > mMax, 피연산자 <T> v, 피연산자 < TFloat32 > vMin, Operand < TFloat32 > vMax, Operand <T> beta, Operand < TFloat32 > betaMin, Operand < TFloat32 > betaMax, Operand <T> gamma, Operand < TFloat32 > gammaMin, Operand < TFloat32 > gammaMax, Class<U> outType , 부동 분산Epsilon, 부울 스케일AfterNormalization)
새로운 QuantizedBatchNormWithGlobalNormalization 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
출력 <U>
결과 ()
출력 < TFloat32 >
출력 < TFloat32 >

상속된 메서드

상수

공개 정적 최종 문자열 OP_NAME

TensorFlow 코어 엔진에서 알려진 이 작업의 이름

상수 값: "QuantizedBatchNormWithGlobalNormalization"

공개 방법

public static QuantizedBatchNormWithGlobalNormalization <U> create ( Scope 범위, Operand <T> t, Operand < TFloat32 > tMin, Operand < TFloat32 > tMax, Operand <T> m, Operand < TFloat32 > mMin, Operand < TFloat32 > mMax, Operand <T > v, 피연산자 < TFloat32 > vMin, 피연산자 < TFloat32 > vMax, 피연산자 <T> beta, 피연산자 < TFloat32 > betaMin , 피연산자 < TFloat32 > betaMax, 피연산자 <T> 감마, 피연산자 < TFloat32 > gammaMin, 피연산자 < TFloat32 > gammaMax , Class<U> outType, Float varianceEpsilon, Boolean scaleAfterNormalization)

새로운 QuantizedBatchNormWithGlobalNormalization 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

매개변수
범위 현재 범위
4D 입력 텐서.
t분 가장 낮은 양자화된 입력으로 표시되는 값입니다.
t최대 가장 높은 양자화된 입력으로 표시되는 값입니다.
1D 평균 Tensor는 크기가 t의 마지막 차원과 일치합니다. 이는 tf.nn.moments의 첫 번째 출력 또는 저장된 이동 평균입니다.
밀리분 가장 낮은 양자화된 평균으로 표시되는 값입니다.
m최대 가장 높은 양자화된 평균으로 표시되는 값입니다.
V t의 마지막 차원과 일치하는 크기를 갖는 1D 분산 텐서. 이는 tf.nn.moments의 두 번째 출력 또는 저장된 이동 평균입니다.
vMin 가장 낮은 양자화 분산으로 표시되는 값입니다.
vMax 가장 높은 양자화된 분산으로 표시되는 값입니다.
베타 t의 마지막 차원과 크기가 일치하는 1D 베타 텐서. 정규화된 텐서에 추가할 오프셋입니다.
베타분 가장 낮은 양자화된 오프셋으로 표시되는 값입니다.
베타맥스 가장 높은 양자화된 오프셋으로 표시되는 값입니다.
감마 t의 마지막 차원과 일치하는 크기를 갖는 1D 감마 텐서. "scale_after_normalization"이 true인 경우 이 텐서는 정규화된 텐서와 곱해집니다.
감마 최소 가장 낮은 양자화된 감마로 표시되는 값입니다.
감마맥스 가장 높은 양자화된 감마로 표시되는 값입니다.
분산엡실론 0으로 나누는 것을 방지하기 위한 작은 부동 소수점 숫자입니다.
scaleAfter정규화 결과 텐서에 감마를 곱해야 하는지 여부를 나타내는 부울입니다.
보고
  • QuantizedBatchNormWithGlobalNormalization의 새로운 인스턴스

공개 출력 <U> 결과 ()

공개 출력 < TFloat32 > resultMax ()

공개 출력 < TFloat32 > resultMin ()