日付を保存! Google I / Oが5月18日から20日に戻ってきます今すぐ登録
このページは Cloud Translation API によって翻訳されました。
Switch to English

tensorflow :: ops :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

ソフトマックスクロスエントロピーコストとバックプロパゲーションの勾配を計算します。

概要

SoftmaxCrossEntropyWithLogitsとは異なり、この操作はラベル確率の行列を受け入れませんが、特徴の行ごとに1つのラベルを受け入れます。このラベルは、指定された行の確率が1.0であると見なされます。

入力はロジットであり、確率ではありません。

引数:

  • スコープ:スコープオブジェクト
  • 機能:batch_size xnum_classes行列
  • ラベル:[0、num_classes)の値を持つbatch_sizeベクトル。これは、指定されたミニバッチエントリのラベルです。

戻り値:

  • Output損失:例ごとの損失(batch_sizeベクトル)。
  • Output backprop:逆伝播された勾配(batch_size x num_classes行列)。

コンストラクタとデストラクタ

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

パブリック属性

backprop
loss
operation

パブリック属性

バックプロパゲーション

::tensorflow::Output backprop

損失

::tensorflow::Output loss

操作

Operation operation

公の行事

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)