KLDivergence

パブリック クラスKLDiverence

ラベルと予測の間のカルバック・ライブラー発散損失を計算します。

loss = labels * log(labels / predictions)

スタンドアロン使用:

    Operand<TFloat32> labels =
        tf.constant(new float[][] { {0.f, 1.f}, {0.f, 0.f} });
    Operand<TFloat32> predictions =
        tf.constant(new float[][] { {0.6f, 0.4f}, {0.4f, 0.6f} });
    KLDivergence kld = new KLDivergence(tf);
    Operand<TFloat32> result = kld.call(labels, predictions);
    // produces 0.458
 

サンプルの重みを指定して呼び出します:

    Operand<TFloat32> sampleWeight = tf.constant(new float[] {0.8f, 0.2f});
    Operand<TFloat32> result = kld.call(labels, predictions, sampleWeight);
    // produces 0.366f
 

SUMリダクションタイプの使用:

    KLDivergence kld = new KLDivergence(tf, Reduction.SUM);
    Operand<TFloat32> result = kld.call(labels, predictions);
    // produces 0.916f
 

NONE削減タイプを使用する:

    KLDivergence kld = new KLDivergence(tf, Reduction.NONE);
    Operand<TFloat32> result = kld.call(labels, predictions);
    // produces [0.916f, -3.08e-06f]
 

継承されたフィールド

パブリックコンストラクター

KLD ダイバージェンス(運用 tf)
getSimpleName()を損失名として使用し、損失削減としてREDUCTION_DEFAULTを使用して、Kullback Leibler Divergence Loss を作成します。
KLDivergence (Ops tf、削減削減)
getSimpleName()を損失名として使用して、Kullback Leibler Divergence Loss Loss を作成します。
KLDiverence (Ops tf、文字列名、 Reduction削減)
カルバック・ライブラーの発散損失を発生させます

パブリックメソッド

<T extends TNumber >オペランド<T>
call (オペランド<? extends TNumber > ラベル、オペランド<T> 予測、オペランド<T> サンプルウェイト)
損失を計算するオペランドを生成します。

継承されたメソッド

パブリックコンストラクター

パブリックKLDiverence (Ops tf)

getSimpleName()を損失名として使用し、損失削減としてREDUCTION_DEFAULTを使用して、Kullback Leibler Divergence Loss を作成します。

パラメーター
TF TensorFlow オペレーション

パブリックKLDiverence (Ops tf、 Reduction削減)

getSimpleName()を損失名として使用して、Kullback Leibler Divergence Loss Loss を作成します。

パラメーター
TF TensorFlow オペレーション
削減損失に適用する減額のタイプ。

public KLDiverence (Ops tf、文字列名、 Reduction削減)

カルバック・ライブラーの発散損失を発生させます

パラメーター
TF TensorFlow オペレーション
名前喪失の名前
削減損失に適用する減額のタイプ。

パブリックメソッド

publicオペランド<T>呼び出し(オペランド<? extends TNumber > ラベル、オペランド<T> 予測、オペランド<T> サンプルウェイト)

損失を計算するオペランドを生成します。

パラメーター
ラベル真理値またはラベル
予測予測
サンプルの重みオプションのsampleWeightsは、損失の係数として機能します。スカラーが指定されている場合、損失は指定された値によって単純にスケーリングされます。 SampleWeights がサイズ [batch_size] のテンソルの場合、バッチの各サンプルの合計損失は、SampleWeights ベクトルの対応する要素によって再スケーリングされます。 SampleWeights の形状が [batch_size, d0, .. dN-1] の場合 (またはこの形状にブロードキャストできる場合)、予測の各損失要素は、SampleWeights の対応する値によってスケーリングされます。 (dN-1 に関する注意: すべての損失関数は 1 次元ずつ減少します。通常は axis=-1 です。)
戻り値
  • 損失