ResourceSparseApplyProximalAdagrad

classe final pública ResourceSparseApplyProximalAdagrad

Entradas de atualização esparsas em '*var' e '*accum' de acordo com o algoritmo FOBOS.

Isso é para linhas para as quais temos grad, atualizamos var e accum da seguinte forma: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2 ) máx{|prox_v|-lr l1,0}

Classes aninhadas

aula ResourceSparseApplyProximalAdagrad.Options Atributos opcionais para ResourceSparseApplyProximalAdagrad

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

estático <T estende TType > ResourceSparseApplyProximalAdagrad
create ( Escopo escopo , Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, Opções ... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação ResourceSparseApplyProximalAdagrad.
ResourceSparseApplyProximalAdagrad.Options estático
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor constante: "ResourceSparseApplyProximalAdagrad"

Métodos Públicos

public static ResourceSparseApplyProximalAdagrad create ( Escopo escopo , Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, opções... opções)

Método de fábrica para criar uma classe que agrupa uma nova operação ResourceSparseApplyProximalAdagrad.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
acumular Deve ser de uma variável().
lr Taxa de Aprendizagem. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
l2 Regularização L2. Deve ser um escalar.
graduado O gradiente.
índices Um vetor de índices na primeira dimensão de var e accum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceSparseApplyProximalAdagrad

public static ResourceSparseApplyProximalAdagrad.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se for True, a atualização dos tensores var e accum será protegida por um bloqueio; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.