공개 최종 클래스 QuantizedBatchNormWithGlobalNormalization
양자화된 배치 정규화.
이 작업은 더 이상 사용되지 않으며 향후 제거될 예정입니다. tf.nn.batch_normalization
선호하세요.
상수
끈 | OP_NAME | TensorFlow 코어 엔진에서 알려진 이 작업의 이름 |
공개 방법
static <U는 TType을 확장하고 T는 TType을 확장합니다. > QuantizedBatchNormWithGlobalNormalization <U> | 생성 ( 범위 범위, 피연산자 <T> t, 피연산자 < TFloat32 > tMin, 피연산자 < TFloat32 > tMax, 피연산자 <T> m, 피연산자 < TFloat32 > mMin, 피연산자 < TFloat32 > mMax, 피연산자 <T> v, 피연산자 < TFloat32 > vMin, Operand < TFloat32 > vMax, Operand <T> beta, Operand < TFloat32 > betaMin, Operand < TFloat32 > betaMax, Operand <T> gamma, Operand < TFloat32 > gammaMin, Operand < TFloat32 > gammaMax, Class<U> outType , 부동 분산Epsilon, 부울 스케일AfterNormalization) 새로운 QuantizedBatchNormWithGlobalNormalization 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다. |
출력 <U> | 결과 () |
출력 < TFloat32 > | 결과최대 () |
출력 < TFloat32 > | 결과최소 () |
상속된 메서드
상수
공개 정적 최종 문자열 OP_NAME
TensorFlow 코어 엔진에서 알려진 이 작업의 이름
상수 값: "QuantizedBatchNormWithGlobalNormalization"
공개 방법
public static QuantizedBatchNormWithGlobalNormalization <U> create ( Scope 범위, Operand <T> t, Operand < TFloat32 > tMin, Operand < TFloat32 > tMax, Operand <T> m, Operand < TFloat32 > mMin, Operand < TFloat32 > mMax, Operand <T > v, 피연산자 < TFloat32 > vMin, 피연산자 < TFloat32 > vMax, 피연산자 <T> beta, 피연산자 < TFloat32 > betaMin , 피연산자 < TFloat32 > betaMax, 피연산자 <T> 감마, 피연산자 < TFloat32 > gammaMin, 피연산자 < TFloat32 > gammaMax , Class<U> outType, Float varianceEpsilon, Boolean scaleAfterNormalization)
새로운 QuantizedBatchNormWithGlobalNormalization 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
매개변수
범위 | 현재 범위 |
---|---|
티 | 4D 입력 텐서. |
t분 | 가장 낮은 양자화된 입력으로 표시되는 값입니다. |
t최대 | 가장 높은 양자화된 입력으로 표시되는 값입니다. |
중 | 1D 평균 Tensor는 크기가 t의 마지막 차원과 일치합니다. 이는 tf.nn.moments의 첫 번째 출력 또는 저장된 이동 평균입니다. |
밀리분 | 가장 낮은 양자화된 평균으로 표시되는 값입니다. |
m최대 | 가장 높은 양자화된 평균으로 표시되는 값입니다. |
V | t의 마지막 차원과 일치하는 크기를 갖는 1D 분산 텐서. 이는 tf.nn.moments의 두 번째 출력 또는 저장된 이동 평균입니다. |
vMin | 가장 낮은 양자화 분산으로 표시되는 값입니다. |
vMax | 가장 높은 양자화된 분산으로 표시되는 값입니다. |
베타 | t의 마지막 차원과 크기가 일치하는 1D 베타 텐서. 정규화된 텐서에 추가할 오프셋입니다. |
베타분 | 가장 낮은 양자화된 오프셋으로 표시되는 값입니다. |
베타맥스 | 가장 높은 양자화된 오프셋으로 표시되는 값입니다. |
감마 | t의 마지막 차원과 일치하는 크기를 갖는 1D 감마 텐서. "scale_after_normalization"이 true인 경우 이 텐서는 정규화된 텐서와 곱해집니다. |
감마 최소 | 가장 낮은 양자화된 감마로 표시되는 값입니다. |
감마맥스 | 가장 높은 양자화된 감마로 표시되는 값입니다. |
분산엡실론 | 0으로 나누는 것을 방지하기 위한 작은 부동 소수점 숫자입니다. |
scaleAfter정규화 | 결과 텐서에 감마를 곱해야 하는지 여부를 나타내는 부울입니다. |
보고
- QuantizedBatchNormWithGlobalNormalization의 새로운 인스턴스