SparseSoftmaxCrossEntropyWithLogits

SparseSoftmaxCrossEntropyWithLogits classe pública

Construtores Públicos

Métodos Públicos

estática <T estende TNumber , U estende TNumber > Operando
sparseSoftmaxCrossEntropyWithLogits ( Scope escopo, Operando <T> etiquetas, Operando <U> logits)
Calcula esparso softmax entropia cruzamento entre logits e labels .

Métodos herdados

Construtores Públicos

SparseSoftmaxCrossEntropyWithLogits públicos ()

Métodos Públicos

public static Operando sparseSoftmaxCrossEntropyWithLogits ( Scope escopo, Operando <T> etiquetas, Operando <U> logits)

Calcula esparso softmax entropia cruzamento entre logits e labels .

Mede a probabilidade de erro em tarefas de classificação discreta nas quais as classes são mutuamente exclusivas (cada entrada está em exatamente uma classe). Por exemplo, cada imagem CIFAR-10 é rotulada com um e apenas um rótulo: uma imagem pode ser um cachorro ou um caminhão, mas não ambos.

NOTA:

Para esta operação, a probabilidade de um determinado rótulo é considerada exclusiva. Isto é, as classes macios não são permitidos, e os labels vector deve fornecer um único índice específico para a verdadeira classe para cada linha de logits (cada entrada minibatch). Para a classificação softmax macio com uma distribuição de probabilidade para cada entrada, ERROR(/org.tensorflow.op.NnOps#softmaxCrossEntropyWithLogits) .

AVISO:

Esta op espera logits fora de escala, uma vez que realiza uma softmax em logits internamente para a eficiência. Não chamo isso de op com a saída do softmax , uma vez que irá produzir resultados incorretos.

Um caso de uso comum é ter logitos de forma [batchSize, numClasses] e têm etiquetas de forma [batchSize] , mas dimensões superiores são suportadas, caso em que a dim dimensão -ésimo é assumido como sendo de tamanho numClasses . logits deve ter a tipo de dados de TFloat16 , TFloat32 , ou TFloat64 e labels devem ter a dtipo de TInt32 ou TInt64 .

Parâmetros
alcance escopo atual
rótulos Tensor da forma [d_0, d_1, ..., d_{r-1}] (onde r é posto de labels e resultado) e o tipo de dados é TInt32 ou TInt64 . Cada entrada em labels deve ser um índice em [0, numClasses) . Outros valores irá gerar uma exceção quando este op é executado na CPU, e retornar NaN para linhas de perda e de gradiente correspondente na GPU.
logits Por rótulo activações (tipicamente uma saída linear) de forma [d_0, d_1, ..., d_{r-1}, numClasses] e dataType de TFloat16 , TFloat32 , ou TFloat64 . Essas energias de ativação são interpretadas como probabilidades de registro não normalizadas.
Devoluções
  • Um Tensor da mesma forma como labels e do mesmo tipo que logits com a perda de entropia transversal Softmax.
Lança
Exceção de argumento ilegal Se os logits são escalares (precisam ter classificação> = 1) ou se a classificação dos rótulos não é igual à classificação dos logits menos um.