Cette page a été traduite par l'API Cloud Translation.
Switch to English

tensorflow :: ops :: softmax

#include <nn_ops.h>

Computes softmax activations.

Résumé

Pour chaque lot i et la classe j , nous avons


$$softmax[i, j] = exp(logits[i, j]) / sum_j(exp(logits[i, j]))$$

Arguments:

  • portée: A Portée objet
  • logits: 2-D avec la forme [batch_size, num_classes] .

Retour:

  • Output : Même forme que logits .

Constructeurs et Destructeurs

Softmax (const :: tensorflow::Scope & scope, :: tensorflow::Input logits)

attributs publics

operation
softmax

Les fonctions publiques

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

attributs publics

opération

 Operation operation

softmax

:: tensorflow::Output softmax

Les fonctions publiques

softmax

 Softmax(
  const :: tensorflow::Scope & scope,
  :: tensorflow::Input logits
)

nœud

::tensorflow::Node * node() const 

opérateur :: tensorflow :: entrée

 operator::tensorflow::Input() const 

opérateur :: tensorflow :: sortie

 operator::tensorflow::Output() const