SparseSoftmaxCrossEntropyWithLogits

lớp cuối cùng công khai SparseSoftmaxCrossEntropyWithLogits

Tính toán chi phí entropy chéo softmax và độ dốc để truyền ngược.

Không giống như `SoftmaxCrossEntropyWithLogits`, thao tác này không chấp nhận ma trận xác suất nhãn mà thay vào đó là một nhãn duy nhất cho mỗi hàng đối tượng địa lý. Nhãn này được coi là có xác suất 1,0 cho hàng đã cho.

Đầu vào là logit, không phải xác suất.

Hằng số

Sợi dây OP_NAME Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Phương pháp công khai

Đầu ra <T>
chống đỡ ()
độ dốc lan truyền ngược (ma trận batch_size x num_classes).
tĩnh <T mở rộng TNumber > SparseSoftmaxCrossEntropyWithLogits <T>
tạo (Phạm vi phạm vi, tính năng Toán hạng <T>, Toán hạng <? mở rộng nhãn TNumber >)
Phương thức gốc để tạo một lớp bao bọc một hoạt động SparseSoftmaxCrossEntropyWithLogits mới.
Đầu ra <T>
sự mất mát ()
Mỗi ví dụ mất (vectơ batch_size).

Phương pháp kế thừa

Hằng số

Chuỗi cuối cùng tĩnh công khai OP_NAME

Tên của op này, được biết đến bởi công cụ lõi TensorFlow

Giá trị không đổi: "SparseSoftmaxCrossEntropyWithLogits"

Phương pháp công khai

Đầu ra công khai <T> backprop ()

độ dốc lan truyền ngược (ma trận batch_size x num_classes).

public static SparseSoftmaxCrossEntropyWithLogits <T> tạo (Phạm vi phạm vi , các tính năng của Toán hạng <T>, Toán hạng <? mở rộng nhãn TNumber >)

Phương thức gốc để tạo một lớp bao bọc một hoạt động SparseSoftmaxCrossEntropyWithLogits mới.

Thông số
phạm vi phạm vi hiện tại
đặc trưng ma trận batch_size x num_classes
nhãn vectơ batch_size có giá trị trong [0, num_classes). Đây là nhãn cho mục nhập minibatch nhất định.
Trả lại
  • một phiên bản mới của SparseSoftmaxCrossEntropyWithLogits

mất đầu ra công khai <T> ()

Mỗi ví dụ mất (vectơ batch_size).