SoftmaxCrossEntropyWithLogits

الطبقة العامة SoftmaxCrossEntropyWithLogits

المقاولون العامون

الأساليب العامة

ثابت <T يمتد TNumber ، U يمتد TNumber > المعامل <T>
softmaxCrossEntropyWithLogits ( نطاق النطاق، تسميات المعامل <U>، سجلات المعامل <T>، المحور int)
يحسب الانتروبيا المتقاطعة softmax بين logits labels .

الطرق الموروثة

المقاولون العامون

SoftmaxCrossEntropyWithLogits العامة ()

الأساليب العامة

المعامل الثابت العام <T> softmaxCrossEntropyWithLogits ( نطاق النطاق، تسميات المعامل <U>، سجلات المعامل <T>، المحور int)

يحسب الانتروبيا المتقاطعة softmax بين logits labels .

يقيس الخطأ الاحتمالي في مهام التصنيف المنفصلة التي تكون فيها الفئات حصرية بشكل متبادل (كل إدخال في فئة واحدة بالضبط). على سبيل المثال، يتم تصنيف كل صورة من صور CIFAR-10 بتسمية واحدة فقط: يمكن أن تكون الصورة كلبًا أو شاحنة، ولكن ليس كليهما.

ملحوظة:

في حين أن الفئات متنافية، فإن احتمالاتها لا تحتاج إلى أن تكون كذلك. كل ما هو مطلوب هو أن يكون كل صف من labels عبارة عن توزيع احتمالي صالح. إذا لم تكن كذلك، سيكون حساب التدرج غير صحيح.

في حالة استخدام labels حصرية (حيث تكون فئة واحدة فقط صحيحة في كل مرة)، راجع ERROR(/org.tensorflow.op.NnOps#sparseSoftmaxCrossEntropyWithLogits)

الاستخدام:

   Operand<TFloat32> logits =
       tf.constant(new float[][] { {4.0F, 2.0F, 1.0F}, {0.0F, 5.0F, 1.0F} } );
   Operand<TFloat32> labels =
       tf.constant(new float[][] { {1.0F, 0.0F, 0.0F}, {0.0F, 0.8F, 0.2F} } );
   Operand<TFloat32> output =
       tf.nn.softmaxCrossEntropyWithLogits(labels, logits, -1);
   // output Shape = [2]
   // dataType = FLOAT (1)
   // values { 0.169846, 0.824745 }
 

سيحدث الانتشار العكسي في كل من logits labels . لمنع الانتشار العكسي في labels ، قم بتمرير موترات التسمية من خلال tf.stopGradient قبل إدخالها إلى هذه الوظيفة.

حدود
نِطَاق النطاق الحالي
تسميات يجب أن يحمل كل متجه على طول بُعد الفئة توزيعًا احتماليًا صالحًا، على سبيل المثال، في الحالة التي تكون فيها التسميات بالشكل [batch_size, num_classes] ، يجب أن يكون كل صف من labels[i] توزيعًا احتماليًا صالحًا.
logits عمليات التنشيط لكل تسمية، عادةً ما تكون عبارة عن مخرجات خطية. يتم تفسير طاقات التنشيط هذه على أنها احتمالات سجل غير طبيعية.
محور البعد الطبقي. -1 هو البعد الأخير.
عائدات
  • خسارة الانتروبيا المتقاطعة من softmax نوعه هو نفس logits وشكله هو نفس labels إلا أنه لا يحتوي على البعد الأخير من labels .