ResourceApplyAdagrad

ResourceApplyAdagrad classe final pública

Atualize '* var' de acordo com o esquema adagrad.

acum + = grad * grad var - = lr * grad * (1 / (sqrt (acum) + epsilon))

Classes aninhadas

classe ResourceApplyAdagrad.Options Atributos opcionais para ResourceApplyAdagrad

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

estática <T estende TType > ResourceApplyAdagrad
criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Options ... Opções)
Método de fábrica para criar uma classe envolvendo uma nova operação ResourceApplyAdagrad.
estáticos ResourceApplyAdagrad.Options
updateSlots (booleanas updateSlots)
estáticos ResourceApplyAdagrad.Options
useLocking (booleano useLocking)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "ResourceApplyAdagradV2"

Métodos Públicos

public static ResourceApplyAdagrad criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Options ... Opções)

Método de fábrica para criar uma classe envolvendo uma nova operação ResourceApplyAdagrad.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
acum Deve ser de uma variável ().
lr Fator de escala. Deve ser um escalar.
épsilon Fator constante. Deve ser um escalar.
grad O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceApplyAdagrad

public static ResourceApplyAdagrad.Options updateSlots (boolean updateSlots)

public static ResourceApplyAdagrad.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for `True`, a atualização dos tensores var e Accum será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.