dòng chảy căng:: ôi:: SoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Tính toán chi phí entropy chéo softmax và độ dốc để truyền ngược.

Bản tóm tắt

Đầu vào là logit, không phải xác suất.

Lập luận:

  • phạm vi: Một đối tượng Phạm vi
  • các tính năng: ma trận batch_size x num_classes
  • nhãn: ma trận batch_size x num_classes Người gọi phải đảm bảo rằng mỗi lô nhãn thể hiện phân bố xác suất hợp lệ.

Trả về:

  • Mất Output : Mất mỗi ví dụ (vectơ batch_size).
  • Backprop Output : độ dốc lan truyền ngược (ma trận batch_size x num_classes).

Hàm tạo và hàm hủy

SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Thuộc tính công khai

backprop
loss
operation

Thuộc tính công khai

chống đỡ sau lưng

::tensorflow::Output backprop

sự mất mát

::tensorflow::Output loss

hoạt động

Operation operation

Chức năng công cộng

SoftmaxCrossEntropyWithLogits

 SoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)