Selu

lezione finale pubblica Selu

Calcola il lineare esponenziale scalato: `scale * alpha * (exp(features) - 1)`

se < 0, `scala * caratteristiche` altrimenti.

Da utilizzare insieme a `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')`. Per un abbandono corretto, utilizzare `tf.contrib.nn.alpha_dropout`.

Vedi [Reti neurali autonormalizzanti](https://arxiv.org/abs/1706.02515)

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

Uscita <T>
Uscita <T>
comeuscita ()
Restituisce l'handle simbolico del tensore.
statico <T estende TNumber > Selu <T>
create (ambito dell'ambito , funzionalità dell'operando <T>)
Metodo factory per creare una classe che racchiude una nuova operazione Selu.

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "Selu"

Metodi pubblici

attivazioni Output <T> pubbliche ()

Uscita pubblica <T> asOutput ()

Restituisce l'handle simbolico del tensore.

Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.

public static Selu <T> create ( ambito ambito , funzionalità operando <T>)

Metodo factory per creare una classe che racchiude una nuova operazione Selu.

Parametri
scopo ambito attuale
ritorna
  • una nuova istanza di Selu