도움말 Kaggle에 TensorFlow과 그레이트 배리어 리프 (Great Barrier Reef)를 보호하기 도전에 참여

tensorflow :: ops :: 셀루

#include <nn_ops.h>

스케일링 된 지수 선형 계산 : scale * alpha * (exp(features) - 1)

요약

<0이면 scale * features 그렇지 않은 경우.

`initializer = tf.variance_scaling_initializer (factor = 1.0, mode = 'FAN_IN')와 함께 사용됩니다 . For correct dropout, use tf.contrib.nn.alpha_dropout`을 . For correct dropout, use 하세요.

자가 정규화 신경망 참조

인수 :

보고:

생성자와 소멸자

Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features)

공용 속성

activations
operation

공공 기능

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

공용 속성

활성화

::tensorflow::Output activations

조작

Operation operation

공공 기능

셀루

 Selu(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features
)

마디

::tensorflow::Node * node() const 

연산자 :: tensorflow :: 입력

 operator::tensorflow::Input() const 

연산자 :: tensorflow :: 출력

 operator::tensorflow::Output() const