tensorflow :: ops :: 셀루
#include <nn_ops.h>
스케일링 된 지수 선형 계산 : scale * alpha * (exp(features) - 1)
요약
<0이면 scale * features
그렇지 않은 경우.
`initializer = tf.variance_scaling_initializer (factor = 1.0, mode = 'FAN_IN')와 함께 사용됩니다 . For correct dropout, use
tf.contrib.nn.alpha_dropout`을 . For correct dropout, use
하세요.
자가 정규화 신경망 참조
인수 :
- 범위 : 범위 개체
보고:
-
Output
: 활성화 텐서.
생성자와 소멸자 | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
공용 속성 | |
---|---|
activations | |
operation |
공공 기능 | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
공용 속성
활성화
::tensorflow::Output activations
조작
Operation operation
공공 기능
셀루
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
마디
::tensorflow::Node * node() const
연산자 :: tensorflow :: 입력
operator::tensorflow::Input() const
연산자 :: tensorflow :: 출력
operator::tensorflow::Output() const