ReLU

genel sınıf ReLU

Düzeltilmiş Doğrusal Birim (ReLU) aktivasyonu.

Varsayılan değerlerle bu, standart ReLU aktivasyonunu döndürür: max(x, 0) , öğe bazında maksimum 0 ve giriş tensörü.

Varsayılan parametreleri değiştirmek, sıfır olmayan eşikleri kullanmanıza, aktivasyonun maksimum değerini değiştirmenize ve eşiğin altındaki değerler için girişin sıfır olmayan bir katını kullanmanıza olanak tanır.

Örneğin:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

Sabitler

batmadan yüzmek ALPHA_DEFAULT
batmadan yüzmek MAX_VALUE_DEFAULT
batmadan yüzmek THRESHOLD_DEFAULT

Kamu İnşaatçıları

ReLU (Ops tf)
alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , eşik= THRESHOLD_DEFAULT ile yeni bir ReLU oluşturur,
ReLU (Ops tf, kayan nokta alfa, kayan nokta maxValue, kayan eşik)
Yeni bir ReLU oluşturur

Genel Yöntemler

İşlenen <T>
çağrı ( İşlenen <T> girişi)
Etkinleştirme için hesaplama işlemini alır.

Kalıtsal Yöntemler

Sabitler

genel statik son kayan nokta ALPHA_DEFAULT

Sabit Değer: 0,0

genel statik son kayan nokta MAX_VALUE_DEFAULT

Sabit Değer: NaN

genel statik son kayan nokta THRESHOLD_DEFAULT

Sabit Değer: 0,0

Kamu İnşaatçıları

halka açık ReLU (Ops tf)

alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , eşik= THRESHOLD_DEFAULT ile yeni bir ReLU oluşturur,

Parametreler
TF TensorFlow Operasyonları

genel ReLU (Ops tf, kayan alfa, kayan nokta maxValue, kayan eşik)

Yeni bir ReLU oluşturur

Parametreler
TF TensorFlow Operasyonları
alfa eşikten daha düşük değerler için eğimi yönetir.
maksimum değer doygunluk eşiğini ayarlar (fonksiyonun döndüreceği en büyük değer).
eşik altında değerlerin sönümleneceği veya sıfıra ayarlanacağı aktivasyon fonksiyonunun eşik değeri.

Genel Yöntemler

genel İşlenen <T> çağrısı ( İşlenen <T> girişi)

Etkinleştirme için hesaplama işlemini alır.

Parametreler
giriş giriş tensörü
İadeler
  • Etkinleştirme işleneni