Trả lời cho sự kiện TensorFlow Everywhere tại địa phương của bạn ngay hôm nay!
Trang này được dịch bởi Cloud Translation API.
Switch to English

dòng chảy :: ops :: SoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Tính toán chi phí entropy chéo softmax và gradient để sao chép.

Tóm lược

Đầu vào là nhật ký, không phải xác suất.

Tranh luận:

  • phạm vi: Một đối tượng Phạm vi
  • tính năng: batch_size x num_classes matrix
  • label: batch_size x num_classes matrix Người gọi phải đảm bảo rằng mỗi lô nhãn đại diện cho một phân phối xác suất hợp lệ.

Lợi nhuận:

  • Suy hao Output : Theo mất mát ví dụ (vector kích thước lô).
  • Backprop Output : các gradient được đánh dấu ngược (kích thước lô_xuất x num_classes ma trận).

Người xây dựng và Người phá hủy

SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Thuộc tính công cộng

backprop
loss
operation

Thuộc tính công cộng

backprop

::tensorflow::Output backprop

thua

::tensorflow::Output loss

hoạt động

Operation operation

Chức năng công cộng

SoftmaxCrossEntropyWithLogits

 SoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)