Lưu ngày! Google I / O hoạt động trở lại từ ngày 18 đến 20 tháng 5 Đăng ký ngay
Trang này được dịch bởi Cloud Translation API.
Switch to English

dòng chảy :: hoạt động :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Tính toán chi phí entropy chéo softmax và gradient để sao chép ngược.

Tóm lược

Không giống như SoftmaxCrossEntropyWithLogits , thao tác này không chấp nhận ma trận xác suất nhãn, mà là một nhãn duy nhất trên mỗi hàng tính năng. Nhãn này được coi là có xác suất 1,0 cho hàng đã cho.

Đầu vào là nhật ký, không phải xác suất.

Tranh luận:

  • phạm vi: Một đối tượng Phạm vi
  • các tính năng: batch_size x num_classes matrix
  • label: vectơ batch_size với các giá trị trong [0, num_classes). Đây là nhãn cho mục nhập minibatch đã cho.

Lợi nhuận:

  • Suy hao Output : Theo mất mát ví dụ (vectơ kích thước hàng loạt).
  • Backprop Output : gradient được đánh dấu backpropagated (ma trận batch_size x num_classes).

Người xây dựng và Người phá hủy

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Thuộc tính công cộng

backprop
loss
operation

Thuộc tính công cộng

backprop

::tensorflow::Output backprop

thua

::tensorflow::Output loss

hoạt động

Operation operation

Chức năng công cộng

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)