Aviso: esta API está obsoleta e será removida em uma versão futura do TensorFlow depois que a substituição estiver estável.

ResourceApplyAdagradV2

ResourceApplyAdagradV2 classe final pública

Atualize '* var' de acordo com o esquema adagrad.

acum + = grad * grad var - = lr * grad * (1 / (sqrt (acum) + epsilon))

Classes aninhadas

classe ResourceApplyAdagradV2.Options Atributos opcionais para ResourceApplyAdagradV2

Métodos Públicos

estática <T> ResourceApplyAdagradV2
criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Options ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação ResourceApplyAdagradV2.
estáticos ResourceApplyAdagradV2.Options
updateSlots (booleanas updateSlots)
estáticos ResourceApplyAdagradV2.Options
useLocking (booleano useLocking)

Métodos herdados

Métodos Públicos

public static ResourceApplyAdagradV2 criar ( Scope escopo, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Options ... Opções)

Método de fábrica para criar uma classe envolvendo uma nova operação ResourceApplyAdagradV2.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
acum Deve ser de uma variável ().
lr Fator de escala. Deve ser um escalar.
épsilon Fator constante. Deve ser um escalar.
grad O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceApplyAdagradV2

public static ResourceApplyAdagradV2.Options updateSlots (boolean updateSlots)

public static ResourceApplyAdagradV2.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for `True`, a atualização dos tensores var e Accum será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.