ApplyAdagradV2

classe final pública ApplyAdagradV2

Atualize '*var' de acordo com o esquema adagrad.

acumular += grad * grad var -= lr * grad * (1 / sqrt(accum))

Classes aninhadas

aula AplicarAdagradV2.Options Atributos opcionais para ApplyAdagradV2

Métodos Públicos

Saída <T>
asOutput ()
Retorna o identificador simbólico de um tensor.
estático <T> ApplyAdagradV2 <T>
create ( Escopo , Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Opções... opções)
Método de fábrica para criar uma classe que envolve uma nova operação ApplyAdagradV2.
Saída <T>
fora ()
O mesmo que "var".
ApplyAdagradV2.Options estático
updateSlots (booleano updateSlots)
ApplyAdagradV2.Options estático
useLocking (booleano useLocking)

Métodos herdados

Métodos Públicos

Saída pública <T> asOutput ()

Retorna o identificador simbólico de um tensor.

As entradas para operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static ApplyAdagradV2 <T> create ( Escopo escopo , Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Opções... opções)

Método de fábrica para criar uma classe que envolve uma nova operação ApplyAdagradV2.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
acumular Deve ser de uma variável().
lr Fator de escala. Deve ser um escalar.
épsilon Fator constante. Deve ser um escalar.
graduado O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ApplyAdagradV2

Saída pública <T> out ()

O mesmo que "var".

public static ApplyAdagradV2.Options updateSlots (booleano updateSlots)

public static ApplyAdagradV2.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se `True`, a atualização dos tensores var e accum será protegida por um bloqueio; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.