SparseApplyAdagradV2

classe final pública SparseApplyAdagradV2

Atualize as entradas relevantes em '*var' e '*accum' de acordo com o esquema adagrad.

Ou seja, para as linhas para as quais temos grad, atualizamos var e accum da seguinte forma: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

Classes aninhadas

classe SparseApplyAdagradV2.Options Atributos opcionais para SparseApplyAdagradV2

Métodos públicos

Saída <T>
comoSaída ()
Retorna o identificador simbólico de um tensor.
estático <T, U estende Número> SparseApplyAdagradV2 <T>
create ( Escopo do escopo, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> épsilon, Operando <T> grad, Operando <U> índices, Opções... opções)
Método de fábrica para criar uma classe que envolve uma nova operação SparseApplyAdagradV2.
Saída <T>
fora ()
O mesmo que "var".
static SparseApplyAdagradV2.Options
updateSlots (booleano updateSlots)
static SparseApplyAdagradV2.Options
useLocking (booleano useLocking)

Métodos Herdados

Métodos públicos

Public Output <T> asOutput ()

Retorna o identificador simbólico de um tensor.

As entradas para operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static SparseApplyAdagradV2 <T> create ( Escopo do escopo, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> épsilon, Operando <T> grad, Operando <U> índices, Opções.. . opções)

Método de fábrica para criar uma classe que envolve uma nova operação SparseApplyAdagradV2.

Parâmetros
alcance escopo atual
var Deve ser de uma variável().
acumular Deve ser de uma variável().
lr Taxa de Aprendizagem. Deve ser um escalar.
épsilon Fator constante. Deve ser um escalar.
graduar O gradiente.
índices Um vetor de índices na primeira dimensão de var e acum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de SparseApplyAdagradV2

saída pública <T> saída ()

O mesmo que "var".

public static SparseApplyAdagradV2.Options updateSlots (Boolean updateSlots)

public static SparseApplyAdagradV2.Options useLocking (Boolean useLocking)

Parâmetros
useBloqueio Se `True`, a atualização dos tensores var e accum será protegida por um bloqueio; caso contrário, o comportamento é indefinido, mas pode apresentar menos contenção.