ResourceSparseApplyAdagrad

ResourceSparseApplyAdagrad classe final pública

Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema adagrad.

Ou seja, para as linhas para as quais temos grad, atualizamos var e acum como segue: acum + = grad * grad var - = lr * grad * (1 / sqrt (acum))

Classes aninhadas

classe ResourceSparseApplyAdagrad.Options Atributos opcionais para ResourceSparseApplyAdagrad

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

estática <T estende TType > ResourceSparseApplyAdagrad
criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> grad, Operando <? estende TNumber > índices, Options ... Opções)
Método de fábrica para criar uma classe envolvendo uma nova operação ResourceSparseApplyAdagrad.
estáticos ResourceSparseApplyAdagrad.Options
updateSlots (booleanas updateSlots)
estáticos ResourceSparseApplyAdagrad.Options
useLocking (booleano useLocking)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "ResourceSparseApplyAdagrad"

Métodos Públicos

public static ResourceSparseApplyAdagrad criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> grad, Operando <? estende TNumber > índices, Options ... Opções)

Método de fábrica para criar uma classe envolvendo uma nova operação ResourceSparseApplyAdagrad.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
acum Deve ser de uma variável ().
lr Taxa de Aprendizagem. Deve ser um escalar.
grad O gradiente.
índices Um vetor de índices na primeira dimensão de var e acum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceSparseApplyAdagrad

public static ResourceSparseApplyAdagrad.Options updateSlots (boolean updateSlots)

public static ResourceSparseApplyAdagrad.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for `True`, a atualização dos tensores var e Accum será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.