SparseApplyProximalGradientDescent

classe final pública SparseApplyProximalGradientDescent

Atualização esparsa '*var' como algoritmo FOBOS com taxa de aprendizagem fixa.

Ou seja, para as linhas para as quais temos graduação, atualizamos var da seguinte forma: $$prox_v = var - alpha grad$$$$var = sign(prox_v)/(1+alphal2) max{|prox_v|-alphal1,0}$$

Classes aninhadas

aula SparseApplyProximalGradientDescent.Options Atributos opcionais para SparseApplyProximalGradientDescent

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

Saída <T>
asOutput ()
Retorna o identificador simbólico do tensor.
estático <T estende TType > SparseApplyProximalGradientDescent <T>
criar ( Escopo do escopo , Operando <T> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, Opções... opções)
Método de fábrica para criar uma classe que envolve uma nova operação SparseApplyProximalGradientDescent.
Saída <T>
fora ()
O mesmo que "var".
estático SparseApplyProximalGradientDescent.Options
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor constante: "SparseApplyProximalGradientDescent"

Métodos Públicos

Saída pública <T> asOutput ()

Retorna o identificador simbólico do tensor.

As entradas para operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static SparseApplyProximalGradientDescent <T> create ( Escopo escopo, Operando <T> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, Opções ... opções)

Método de fábrica para criar uma classe que envolve uma nova operação SparseApplyProximalGradientDescent.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
alfa Fator de escala. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
l2 Regularização L2. Deve ser um escalar.
graduado O gradiente.
índices Um vetor de índices na primeira dimensão de var e accum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de SparseApplyProximalGradientDescent

Saída pública <T> out ()

O mesmo que "var".

público estático SparseApplyProximalGradientDescent.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se for True, a subtração será protegida por um cadeado; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.