dòng chảy căng:: ôi:: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Tính toán chi phí entropy chéo softmax và độ dốc để truyền ngược.

Bản tóm tắt

Không giống như SoftmaxCrossEntropyWithLogits , thao tác này không chấp nhận ma trận xác suất nhãn mà thay vào đó là một nhãn duy nhất cho mỗi hàng đối tượng. Nhãn này được coi là có xác suất 1,0 cho hàng đã cho.

Đầu vào là logit, không phải xác suất.

Lập luận:

  • phạm vi: Một đối tượng Phạm vi
  • các tính năng: ma trận batch_size x num_classes
  • nhãn: vectơ batch_size có giá trị trong [0, num_classes). Đây là nhãn cho mục nhập minibatch nhất định.

Trả về:

  • Mất Output : Mất mỗi ví dụ (vectơ batch_size).
  • Backprop Output : độ dốc lan truyền ngược (ma trận batch_size x num_classes).

Hàm tạo và hàm hủy

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Thuộc tính công khai

backprop
loss
operation

Thuộc tính công khai

chống đỡ sau lưng

::tensorflow::Output backprop

sự mất mát

::tensorflow::Output loss

hoạt động

Operation operation

Chức năng công cộng

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)