Google I / O hoạt động trở lại từ ngày 18 đến 20 tháng 5! Đặt chỗ và xây dựng lịch trình của bạn Đăng ký ngay

dòng chảy :: hoạt động :: SoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Tính toán chi phí entropy chéo softmax và gradient để sao chép ngược.

Tóm lược

Đầu vào là nhật ký, không phải xác suất.

Tranh luận:

  • phạm vi: Một đối tượng Phạm vi
  • các tính năng: batch_size x num_classes matrix
  • label: batch_size x num_classes matrix Người gọi phải đảm bảo rằng mỗi lô nhãn đại diện cho một phân phối xác suất hợp lệ.

Lợi nhuận:

  • Suy hao Output : Theo mất mát ví dụ (vectơ kích thước hàng loạt).
  • Backprop Output : gradient được đánh dấu backpropagated (kích thước hàng loạt x số lượng lớp ma trận).

Người xây dựng và Người phá hủy

SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Thuộc tính công cộng

backprop
loss
operation

Thuộc tính công cộng

backprop

::tensorflow::Output backprop

thua

::tensorflow::Output loss

hoạt động

Operation operation

Chức năng công cộng

SoftmaxCrossEntropyWithLogits

 SoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)