ResourceSparseApplyProximalAdagrad

ResourceSparseApplyProximalAdagrad classe final pública

Entradas de atualização esparsas em '* var' e '* acum' de acordo com o algoritmo FOBOS.

Isso é para as linhas que temos grad, nós atualizar var e accum da seguinte forma: accum + = grad grad prox_v = var prox_v - = lr grad (1 / sqrt (accum)) var sinal = (prox_v) / (1 + lr l2 ) max {| prox_v | -LR l1,0}

Classes aninhadas

classe ResourceSparseApplyProximalAdagrad.Options Atributos opcionais para ResourceSparseApplyProximalAdagrad

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

estática <T estende TType > ResourceSparseApplyProximalAdagrad
criar ( Scope escopo, Operando <?> var, Operando <?> Acumulado, Operando <T> lr, Operando <T> L1, Operando <T> L2, Operando <T> formando, Operando <? estende TNumber > índices, opções ... opções)
Método de fábrica para criar uma classe que envolve uma nova operação ResourceSparseApplyProximalAdagrad.
estáticos ResourceSparseApplyProximalAdagrad.Options
useLocking (booleano useLocking)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "ResourceSparseApplyProximalAdagrad"

Métodos Públicos

public static ResourceSparseApplyProximalAdagrad criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> L1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, opções ... opções)

Método de fábrica para criar uma classe que envolve uma nova operação ResourceSparseApplyProximalAdagrad.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
acum Deve ser de uma variável ().
lr Taxa de Aprendizagem. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
12 Regularização L2. Deve ser um escalar.
grad O gradiente.
índices Um vetor de índices na primeira dimensão de var e acum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceSparseApplyProximalAdagrad

public static ResourceSparseApplyProximalAdagrad.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for True, a atualização dos tensores var e Accum será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.