เทนเซอร์โฟลว์ :: ops :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

คำนวณต้นทุนเอนโทรปีข้าม softmax และการไล่ระดับสีเป็น backpropagate

สรุป

ซึ่งแตกต่างจาก SoftmaxCrossEntropyWithLogits การดำเนินการนี้ไม่ยอมรับเมทริกซ์ของความน่าจะเป็นของป้ายกำกับ แต่จะเป็นป้ายกำกับเดียวต่อแถวของคุณลักษณะ ป้ายกำกับนี้ถือว่ามีความน่าจะเป็น 1.0 สำหรับแถวที่ระบุ

อินพุตคือบันทึกไม่ใช่ความน่าจะเป็น

อาร์กิวเมนต์:

  • ขอบเขต: วัตถุ ขอบเขต
  • คุณสมบัติ: batch_size x num_classes เมทริกซ์
  • ป้ายกำกับ: batch_size vector ที่มีค่าเป็น [0, num_classes) นี่คือป้ายกำกับสำหรับรายการมินิแบทช์ที่ระบุ

ผลตอบแทน:

  • Output สูญเสีย Output : การสูญเสียต่อตัวอย่าง (เวกเตอร์ batch_size)
  • backprop Output : การไล่ระดับสีย้อนกลับ (เมทริกซ์ batch_size x num_classes)

ผู้สร้างและผู้ทำลาย

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

คุณลักษณะสาธารณะ

backprop
loss
operation

คุณลักษณะสาธารณะ

backprop

::tensorflow::Output backprop

การสูญเสีย

::tensorflow::Output loss

การดำเนินการ

Operation operation

หน้าที่สาธารณะ

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)