dòng chảy :: ops :: SoftmaxCrossEntropyWithLogits
#include <nn_ops.h>
Tính toán chi phí entropy chéo softmax và gradient để sao chép.
Tóm lược
Đầu vào là nhật ký, không phải xác suất.
Tranh luận:
- phạm vi: Một đối tượng Phạm vi
- tính năng: batch_size x num_classes matrix
- label: batch_size x num_classes matrix Người gọi phải đảm bảo rằng mỗi lô nhãn đại diện cho một phân phối xác suất hợp lệ.
Lợi nhuận:
- Suy hao
Output
: Theo mất mát ví dụ (vector kích thước lô). - Backprop
Output
: các gradient được đánh dấu ngược (kích thước lô_xuất x num_classes ma trận).
Người xây dựng và Người phá hủy | |
---|---|
SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels) |
Thuộc tính công cộng | |
---|---|
backprop | |
loss | |
operation |
Thuộc tính công cộng
backprop
::tensorflow::Output backprop
thua
::tensorflow::Output loss
hoạt động
Operation operation
Chức năng công cộng
SoftmaxCrossEntropyWithLogits
SoftmaxCrossEntropyWithLogits( const ::tensorflow::Scope & scope, ::tensorflow::Input features, ::tensorflow::Input labels )