RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

public final class RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Recupere los parámetros de incrustación de SGD con soporte de depuración.

Una operación que recupera los parámetros de optimización de la incrustación en la memoria del host. Debe ir precedido de una operación ConfigureTPUEmbeddingHost que establezca la configuración correcta de la tabla de inserción. Por ejemplo, esta operación se utiliza para recuperar parámetros actualizados antes de guardar un punto de control.

Clases anidadas

clase RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Atributos opcionales para RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Métodos públicos

static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
crear ( alcance de alcance, fragmentos numéricos largos, ID de fragmento largo, opciones ... opciones)
Método de fábrica para crear una clase que envuelva una nueva operación RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Salida <Float>
Gradiente Acumuladores ()
Parámetro gradiente_acumuladores actualizado por el algoritmo de optimización de Adadelta.
Salida <Float>
parámetros ()
Parámetros de parámetros actualizados por el algoritmo de optimización de descenso de gradiente estocástico.
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableId (Long tableId)
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (cadena tableName)

Métodos heredados

Métodos públicos

public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( Scope scope, Long numShards, Long shardId, Options ... opciones)

Método de fábrica para crear una clase que envuelva una nueva operación RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Parámetros
alcance alcance actual
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Public Output <Float> gradientAccumulators ()

Parámetro gradiente_acumuladores actualizado por el algoritmo de optimización de Adadelta.

parámetros de salida pública <Float> ()

Parámetros de parámetros actualizados por el algoritmo de optimización de descenso de gradiente estocástico.