LoadTPUEmbeddingADAMParametersGradAccumDebug

publiczna klasa końcowa LoadTPUEmbeddingADAMParametersGradAccumDebug

Załaduj parametry osadzania programu ADAM z obsługą debugowania.

Operacja ładująca parametry optymalizacyjne do HBM w celu osadzenia. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do instalowania parametrów ładowanych z punktu kontrolnego przed wykonaniem pętli szkoleniowej.

Klasy zagnieżdżone

klasa ZaładujTPUEmbeddingADAMParametersGradAccumDebug.Options Opcjonalne atrybuty dla LoadTPUEmbeddingADAMParametersGradAccumDebug

Metody publiczne

statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug.Options
konfiguracja (konfiguracja ciągu)
statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug
utwórz (zakres zakresu , parametry argumentu <Float>, moment argumentu <Float>, prędkości argumentu <Float>, argument <Float> gradientAccumulators, Long numShards, Long shardId, opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację LoadTPUEmbeddingADAMParametersGradAccumDebug.
statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug.Options
tableId (długi identyfikator stołu)
statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug.Options
nazwa_tabeli (ciąg znaków nazwa_tabeli)

Metody dziedziczone

Metody publiczne

public static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options config (konfiguracja ciągu)

public static LoadTPUEmbeddingADAMParametersGradAccumDebug create (zakres zakresu , parametry argumentu <Float>, moment argumentu <Float>, prędkości argumentu <Float>, argument <Float> gradientAccumulators, Long numShards, Long shardId, opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację LoadTPUEmbeddingADAMParametersGradAccumDebug.

Parametry
zakres aktualny zakres
parametry Wartość parametrów wykorzystywanych w algorytmie optymalizacyjnym programu ADAM.
chwila Wartość pędu wykorzystywana w algorytmie optymalizacji ADAM.
prędkości Wartość prędkości wykorzystywana w algorytmie optymalizacji ADAM.
akumulatory gradientowe Wartość gradient_akumulatorów wykorzystana w algorytmie optymalizacji programu ADAM.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja LoadTPUEmbeddingADAMParametersGradAccumDebug

public static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (Długi identyfikator tabeli)

public static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (String tableName)