Trả lời cho sự kiện TensorFlow Everywhere tại địa phương của bạn ngay hôm nay!
Trang này được dịch bởi Cloud Translation API.
Switch to English

dòng chảy :: ops :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Tính toán chi phí entropy chéo softmax và gradient để sao chép ngược.

Tóm lược

Không giống như SoftmaxCrossEntropyWithLogits , thao tác này không chấp nhận ma trận xác suất nhãn, mà là một nhãn duy nhất trên mỗi hàng tính năng. Nhãn này được coi là có xác suất 1,0 cho hàng đã cho.

Đầu vào là nhật ký, không phải xác suất.

Tranh luận:

  • phạm vi: Một đối tượng Phạm vi
  • tính năng: batch_size x num_classes matrix
  • nhãn: vectơ batch_size với các giá trị trong [0, num_classes). Đây là nhãn cho mục nhập minibatch đã cho.

Lợi nhuận:

  • Suy hao Output : Theo mất mát ví dụ (vector kích thước lô).
  • Backprop Output : các gradient được đánh dấu backpropagated (ma trận batch_size x num_classes).

Người xây dựng và Người phá hủy

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Thuộc tính công cộng

backprop
loss
operation

Thuộc tính công cộng

backprop

::tensorflow::Output backprop

thua

::tensorflow::Output loss

hoạt động

Operation operation

Chức năng công cộng

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)