ResourceApplyAdagrad

classe final pública ResourceApplyAdagrad

Atualize '*var' de acordo com o esquema adagrad.

acumular += grad * grad var -= lr * grad * (1 / (sqrt(accum) + épsilon))

Classes aninhadas

aula ResourceApplyAdagrad.Options Atributos opcionais para ResourceApplyAdagrad

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

estático <T estende TType > ResourceApplyAdagrad
criar ( Escopo escopo , Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação ResourceApplyAdagrad.
ResourceApplyAdagrad.Options estático
updateSlots (booleano updateSlots)
ResourceApplyAdagrad.Options estático
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor constante: "ResourceApplyAdagradV2"

Métodos Públicos

public static ResourceApplyAdagrad create ( Escopo escopo , Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Opções... opções)

Método de fábrica para criar uma classe que agrupa uma nova operação ResourceApplyAdagrad.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
acumular Deve ser de uma variável().
lr Fator de escala. Deve ser um escalar.
épsilon Fator constante. Deve ser um escalar.
graduado O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceApplyAdagrad

public static ResourceApplyAdagrad.Options updateSlots (booleano updateSlots)

public static ResourceApplyAdagrad.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se `True`, a atualização dos tensores var e accum será protegida por um bloqueio; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.