このページは Cloud Translation API によって翻訳されました。
Switch to English

tensorflow :: ops :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

逆伝播するソフトマックスクロスエントロピーコストと勾配を計算します。

概要

SoftmaxCrossEntropyWithLogitsとは異なり、この操作は、ラベル確率のマトリックスではなく、フィーチャの行ごとに1つのラベルを受け入れます。このラベルは、指定された行の確率が1.0であると見なされます。

入力はロジットであり、確率ではありません。

引数:

  • scope: Scopeオブジェクト
  • 機能:batch_size x num_classesマトリックス
  • labels:[0、num_classes)の値を持つbatch_sizeベクトル。これは、指定されたミニバッチエントリのラベルです。

戻り値:

  • Output損失:例ごとの損失(batch_sizeベクトル)。
  • Output backprop:バックプロパゲーションされたグラデーション(batch_size x num_classes行列)。

コンストラクタとデストラクタ

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

公開属性

backprop
loss
operation

公開属性

バックプロップ

::tensorflow::Output backprop

損失

::tensorflow::Output loss

操作

Operation operation

公開機能

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)