SoftmaxCrossEntropyWithLogits

lớp công khai SoftmaxCrossEntropyWithLogits

Nhà xây dựng công cộng

Phương pháp công khai

static <T mở rộng TNumber , U mở rộng TNumber > Toán hạng <T>
softmaxCrossEntropyWithLogits ( Phạm vi phạm vi, nhãn Toán hạng <U>, nhật ký Toán hạng <T>, trục int)
Tính toán entropy chéo softmax giữa logitslabels .

Phương pháp kế thừa

Nhà xây dựng công cộng

công khai SoftmaxCrossEntropyWithLogits ()

Phương pháp công khai

public static Toán hạng <T> softmaxCrossEntropyWithLogits ( Phạm vi phạm vi, nhãn Toán hạng <U>, nhật ký Toán hạng <T>, trục int)

Tính toán entropy chéo softmax giữa logitslabels .

Đo lường sai số xác suất trong các nhiệm vụ phân loại riêng biệt trong đó các lớp loại trừ lẫn nhau (mỗi mục nằm trong chính xác một lớp). Ví dụ: mỗi hình ảnh CIFAR-10 được gắn nhãn bằng một và chỉ một nhãn: hình ảnh có thể là một con chó hoặc một chiếc xe tải, nhưng không được cả hai.

GHI CHÚ:

Mặc dù các lớp loại trừ lẫn nhau nhưng xác suất của chúng không nhất thiết phải như vậy. Tất cả những gì cần thiết là mỗi hàng labels là một phân bố xác suất hợp lệ. Nếu không, việc tính toán gradient sẽ không chính xác.

Nếu sử dụng labels độc quyền (trong đó một và chỉ một lớp là đúng tại một thời điểm), hãy xem ERROR(/org.tensorflow.op.NnOps#sparseSoftmaxCrossEntropyWithLogits)

Cách sử dụng:

   Operand<TFloat32> logits =
       tf.constant(new float[][] { {4.0F, 2.0F, 1.0F}, {0.0F, 5.0F, 1.0F} } );
   Operand<TFloat32> labels =
       tf.constant(new float[][] { {1.0F, 0.0F, 0.0F}, {0.0F, 0.8F, 0.2F} } );
   Operand<TFloat32> output =
       tf.nn.softmaxCrossEntropyWithLogits(labels, logits, -1);
   // output Shape = [2]
   // dataType = FLOAT (1)
   // values { 0.169846, 0.824745 }
 

Lan truyền ngược sẽ xảy ra ở cả logitslabels . Để không cho phép lan truyền ngược vào labels , hãy chuyển các tenxơ nhãn qua tf.stopGradient trước khi đưa nó vào hàm này.

Thông số
phạm vi phạm vi hiện tại
nhãn Mỗi vectơ dọc theo thứ nguyên lớp phải chứa phân phối xác suất hợp lệ, ví dụ: trong trường hợp nhãn có hình dạng [batch_size, num_classes] , mỗi hàng labels[i] phải là phân phối xác suất hợp lệ.
nhật ký Kích hoạt trên mỗi nhãn, thường là đầu ra tuyến tính. Những năng lượng kích hoạt này được hiểu là xác suất nhật ký không chuẩn hóa.
trục Chiều kích lớp học. -1 là kích thước cuối cùng.
Trả lại
  • sự mất mát entropy chéo softmax. Kiểu của nó giống với logits và hình dạng của nó giống với labels ngoại trừ việc nó không có chiều cuối cùng là labels .