tensorflow :: opérations :: Softmax
#include <nn_ops.h>
Calcule les activations softmax.
Résumé
Pour chaque lot i
et classe j
nous avons
$$softmax[i, j] = exp(logits[i, j]) / sum_j(exp(logits[i, j]))$$
Arguments:
- scope: un objet Scope
- logits: 2D avec forme
[batch_size, num_classes]
.
Retour:
-
Output
: même forme que leslogits
.
Constructeurs et destructeurs | |
---|---|
Softmax (const :: tensorflow::Scope & scope, :: tensorflow::Input logits) |
Attributs publics | |
---|---|
operation | |
softmax |
Fonctions publiques | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Attributs publics
opération
Operation operation
softmax
::tensorflow::Output softmax
Fonctions publiques
Softmax
Softmax( const ::tensorflow::Scope & scope, ::tensorflow::Input logits )
nœud
::tensorflow::Node * node() const
operator :: tensorflow :: Input
operator::tensorflow::Input() const
operator :: tensorflow :: Output
operator::tensorflow::Output() const