org.tensorflow.framework.activations

Zajęcia

Aktywacja <T przedłuża TNumber > Abstrakcyjna klasa bazowa dla aktywacji

Uwaga: Przed wywołaniem metody wywołania należy ustawić atrybut ERROR(/#tf) .

ELU <T rozszerza TFloating > Wykładnicza jednostka liniowa.
Wykładniczy <T rozszerza TFloating > Wykładnicza funkcja aktywacji.
HardSigmoid <T rozszerza TFloating > Twarda aktywacja esicy.
Liniowy <U rozszerza TNumber > Liniowa funkcja aktywacji (przejściowa).
ReLU <T rozszerza TNumer > Aktywacja rektyfikowanej jednostki liniowej (ReLU).
SELU <T rozszerza TFloating > Skalowana wykładnicza jednostka liniowa (SELU).
Sigmoid <T rozszerza TFloating > Aktywacja sigmoidalna.
Softmax <T rozszerza TFloating > Softmax konwertuje wektor rzeczywisty na wektor prawdopodobieństw kategorycznych.
Softplus <T rozszerza TFloating > Funkcja aktywacji Softplus, softplus(x) = log(exp(x) + 1) .
Softsign <T rozszerza TFloating > Funkcja aktywacji Softsign, softsign(x) = x / (abs(x) + 1) .
Swish <T rozszerza TFloating > Funkcja aktywacji Swish.
Tanh <T rozszerza TFloating > Funkcja aktywacji tangensu hiperbolicznego.