Selu

공개 최종 수업 셀루

스케일링된 지수 선형 계산: `scale * alpha * (exp(features) - 1)`

< 0이면 `scale * feature`, 그렇지 않으면 `scale * feature`입니다.

`initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')`와 함께 사용됩니다. 올바른 드롭아웃을 위해서는 `tf.contrib.nn.alpha_dropout`을 사용하세요.

[자기 정규화 신경망](https://arxiv.org/abs/1706.02515)을 참조하세요.

상수

OP_NAME TensorFlow 코어 엔진에서 알려진 이 작업의 이름

공개 방법

출력 <T>
출력 <T>
출력 ()
텐서의 기호 핸들을 반환합니다.
static <T는 TNumber를 확장합니다. > Selu <T>
생성 ( 범위 범위, 피연산자 <T> 기능)
새로운 Selu 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

상속된 메서드

상수

공개 정적 최종 문자열 OP_NAME

TensorFlow 코어 엔진에서 알려진 이 작업의 이름

상수 값: "Selu"

공개 방법

공개 출력 <T> 활성화 ()

공개 출력 <T> asOutput ()

텐서의 기호 핸들을 반환합니다.

TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.

public static Selu <T> create ( 스코프 범위, 피연산자 <T> 기능)

새로운 Selu 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.

매개변수
범위 현재 범위
보고
  • Selu의 새로운 인스턴스