ResourceSparseApplyProximalGradientDescent

classe final pública ResourceSparseApplyProximalGradientDescent

Atualização esparsa '*var' como algoritmo FOBOS com taxa de aprendizagem fixa.

Ou seja, para as linhas para as quais temos grad, atualizamos var da seguinte forma: prox_v = var - alpha grad var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}

Classes aninhadas

aula ResourceSparseApplyProximalGradientDescent.Options Atributos opcionais para ResourceSparseApplyProximalGradientDescent

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

estático <T estende TType > ResourceSparseApplyProximalGradientDescent
criar ( Escopo do escopo , Operando <?> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação ResourceSparseApplyProximalGradientDescent.
ResourceSparseApplyProximalGradientDescent.Options estático
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor Constante: "ResourceSparseApplyProximalGradientDescent"

Métodos Públicos

public static ResourceSparseApplyProximalGradientDescent create ( Escopo escopo, Operando <?> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, Opções... opções)

Método de fábrica para criar uma classe que agrupa uma nova operação ResourceSparseApplyProximalGradientDescent.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
alfa Fator de escala. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
l2 Regularização L2. Deve ser um escalar.
graduado O gradiente.
índices Um vetor de índices na primeira dimensão de var e accum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceSparseApplyProximalGradientDescent

public static ResourceSparseApplyProximalGradientDescent.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se for True, a subtração será protegida por um cadeado; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.
,
classe final pública ResourceSparseApplyProximalGradientDescent

Atualização esparsa '*var' como algoritmo FOBOS com taxa de aprendizagem fixa.

Ou seja, para as linhas para as quais temos grad, atualizamos var da seguinte forma: prox_v = var - alpha grad var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}

Classes aninhadas

aula ResourceSparseApplyProximalGradientDescent.Options Atributos opcionais para ResourceSparseApplyProximalGradientDescent

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

estático <T estende TType > ResourceSparseApplyProximalGradientDescent
criar ( Escopo do escopo , Operando <?> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação ResourceSparseApplyProximalGradientDescent.
ResourceSparseApplyProximalGradientDescent.Options estático
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor Constante: "ResourceSparseApplyProximalGradientDescent"

Métodos Públicos

public static ResourceSparseApplyProximalGradientDescent create ( Escopo escopo, Operando <?> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, Opções... opções)

Método de fábrica para criar uma classe que agrupa uma nova operação ResourceSparseApplyProximalGradientDescent.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
alfa Fator de escala. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
l2 Regularização L2. Deve ser um escalar.
graduado O gradiente.
índices Um vetor de índices na primeira dimensão de var e accum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceSparseApplyProximalGradientDescent

public static ResourceSparseApplyProximalGradientDescent.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se for True, a subtração será protegida por um cadeado; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.