Pobierz parametry osadzania SGD z obsługą debugowania.
Operacja pobierająca parametry optymalizacyjne z osadzania w pamięci hosta. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do pobierania zaktualizowanych parametrów przed zapisaniem punktu kontrolnego.
Klasy zagnieżdżone
klasa | PobierzTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | Opcjonalne atrybuty dla RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Metody publiczne
pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | konfiguracja (konfiguracja ciągu) |
pobieranie statyczneTPUEOsadzanieStochastycznyGradientDescentParametryGradAccumDebug | |
Wyjście <Pływak> | akumulatory gradientowe () Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adadelta. |
Wyjście <Pływak> | parametry () Parametry parametrów aktualizowane przez algorytm optymalizacji stochastycznego gradientu opadania. |
pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (długi identyfikator stołu) |
pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | nazwa_tabeli (ciąg znaków nazwa_tabeli) |
Metody dziedziczone
Metody publiczne
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options config (konfiguracja ciągu)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( zakres zakresu, Long numShards, Long shardId, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parametry
zakres | aktualny zakres |
---|---|
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
publiczne dane wyjściowe <Float> gradientAccumulators ()
Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adadelta.
publiczne parametry wyjściowe <Float> ()
Parametry parametrów aktualizowane przez algorytm optymalizacji stochastycznego gradientu opadania.