Relu

halka açık final dersi Relu

Düzeltilmiş doğrusal hesaplar: `max(özellikler, 0)`.

Bakınız: https://en.wikipedia.org/wiki/Rectifier_(neural_networks) Örnek kullanım: >>> tf.nn.relu([-2., 0., -0., 3.]).numpy() dizi([ 0., 0., -0., 3.], dtype=float32)

Sabitler

Sicim OP_NAME Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı

Genel Yöntemler

Çıkış <T>
Çıkış <T>
Çıkış olarak ()
Tensörün sembolik tutamacını döndürür.
statik <T TType'ı genişletir > Relu <T>
create ( Kapsam kapsamı, İşlenen <T> özellikleri)
Yeni bir Relu işlemini saran bir sınıf oluşturmak için fabrika yöntemi.

Kalıtsal Yöntemler

Sabitler

genel statik son Dize OP_NAME

Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı

Sabit Değer: "Relu"

Genel Yöntemler

genel Çıkış <T> aktivasyonları ()

genel Çıkış <T> asOutput ()

Tensörün sembolik tutamacını döndürür.

TensorFlow işlemlerinin girdileri, başka bir TensorFlow işleminin çıktılarıdır. Bu yöntem, girişin hesaplanmasını temsil eden sembolik bir tanıtıcı elde etmek için kullanılır.

public static Relu <T> create ( Kapsam kapsamı, İşlenen <T> özellikleri)

Yeni bir Relu işlemini saran bir sınıf oluşturmak için fabrika yöntemi.

Parametreler
kapsam mevcut kapsam
İadeler
  • Relu'nun yeni bir örneği