SparseApplyAdagradV2

clase final pública SparseApplyAdagradV2

Actualice las entradas relevantes en '*var' y '*accum' según el esquema adagrad.

Eso es para las filas para las que tenemos graduación, actualizamos var y acumulamos de la siguiente manera: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

Clases anidadas

clase SparseApplyAdagradV2.Opciones Atributos opcionales para SparseApplyAdagradV2

Métodos públicos

Salida <T>
como salida ()
Devuelve el identificador simbólico de un tensor.
estático <T, U extiende Número> SparseApplyAdagradV2 <T>
create ( Scope scope, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Operando <U> índices, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación SparseApplyAdagradV2.
Salida <T>
fuera ()
Igual que "var".
estática SparseApplyAdagradV2.Options
updateSlots (Booleano updateSlots)
estática SparseApplyAdagradV2.Options
useLocking (booleano useLocking)

Métodos Heredados

Métodos públicos

salida pública <T> como salida ()

Devuelve el identificador simbólico de un tensor.

Las entradas de las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.

public static SparseApplyAdagradV2 <T> create ( Scope scope, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Operando <U> índices, Opciones.. . opciones)

Método de fábrica para crear una clase que envuelve una nueva operación SparseApplyAdagradV2.

Parámetros
alcance alcance actual
variable Debe ser de una Variable().
acumular Debe ser de una Variable().
yo Tasa de aprendizaje. Debe ser un escalar.
épsilon Factor constante. Debe ser un escalar.
graduado el gradiente
índices Un vector de índices en la primera dimensión de var y accum.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de SparseApplyAdagradV2

salida pública <T> fuera ()

Igual que "var".

Public static SparseApplyAdagradV2.Options updateSlots (booleano updateSlots)

público estático SparseApplyAdagradV2.Options useLocking (booleano useLocking)

Parámetros
usarBloqueo Si `True`, la actualización de los tensores var y accum estará protegida por un candado; de lo contrario, el comportamiento no está definido, pero puede exhibir menos contención.