Advertencia: esta API está obsoleta y se eliminará en una versión futura de TensorFlow una vez que el reemplazo sea ​​estable.

ResourceApplyAdagradV2

Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.
ResourceApplyAdagradV2 public final class

Actualice '* var' de acuerdo con el esquema adagrad.

acum + = grad * grad var - = lr * grad * (1 / (sqrt (acum) + epsilon))

Clases anidadas

clase ResourceApplyAdagradV2.Options Los atributos opcionales para ResourceApplyAdagradV2

Métodos públicos

estática <T> ResourceApplyAdagradV2
crear ( Alcance alcance, operando <?> var, operando <?> acum, operando <T> lr, operando <T> épsilon, operando <T> graduado, Opciones ... Opciones)
Método de fábrica para crear una clase que envuelva una nueva operación ResourceApplyAdagradV2.
estáticas ResourceApplyAdagradV2.Options
updateSlots (updateSlots booleanas)
estáticas ResourceApplyAdagradV2.Options
useLocking (Boolean useLocking)

Métodos heredados

Métodos públicos

estáticas pública ResourceApplyAdagradV2 crean ( Alcance alcance, operando <?> var, operando <?> acum, operando <T> lr, operando <T> épsilon, operando <T> graduado, Opciones ... Opciones)

Método de fábrica para crear una clase que envuelva una nueva operación ResourceApplyAdagradV2.

Parámetros
alcance alcance actual
var Debe ser de una variable ().
acumular Debe ser de una variable ().
lr Factor de escala. Debe ser un escalar.
épsilon Factor constante. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceApplyAdagradV2

estáticas pública ResourceApplyAdagradV2.Options updateSlots (updateSlots booleanas)

estáticas pública ResourceApplyAdagradV2.Options useLocking (booleano useLocking)

Parámetros
useLocking Si es "Verdadero", la actualización de los tensores var y acumuladores estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.