از اینکه با Google I/O تنظیم کردید متشکریم. مشاهده همه جلسات در صورت تقاضا تماشا کنید

tensorflow :: ops :: سافت مکس

#include <nn_ops.h>

فعال سازی softmax را محاسبه می کند.

خلاصه

برای هر دسته i و کلاس j ما

$$softmax[i, j] = exp(logits[i, j]) / sum_j(exp(logits[i, j]))$$
داریم

استدلال ها:

  • دامنه: یک شی Sc Scope
  • logits: 2-D با شکل [batch_size, num_classes] .

بازده:

  • Output : همان شکل logits .

سازندگان و ویرانگران

Softmax (const :: tensorflow::Scope & scope, :: tensorflow::Input logits)

صفات عمومی

operation
softmax

کارکردهای عمومی

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

صفات عمومی

عمل

Operation operation

سافت مکس

::tensorflow::Output softmax

کارکردهای عمومی

سافت مکس

 Softmax(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input logits
)

گره

::tensorflow::Node * node() const 

عملگر :: tensorflow :: ورودی

 operator::tensorflow::Input() const 

عملگر :: tensorflow :: خروجی

 operator::tensorflow::Output() const