Pobierz parametry osadzania SGD z obsługą debugowania.
Operacja pobierająca parametry optymalizacyjne z osadzania w pamięci hosta. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do pobierania zaktualizowanych parametrów przed zapisaniem punktu kontrolnego.
Klasy zagnieżdżone
| klasa | PobierzTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | Opcjonalne atrybuty dla RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | |
Metody publiczne
| pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | konfiguracja (konfiguracja ciągu) |
| pobieranie statyczneTPUEOsadzanieStochastycznyGradientDescentParametryGradAccumDebug | |
| Wyjście <Pływak> | akumulatory gradientowe () Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adadelta. |
| Wyjście <Pływak> | parametry () Parametry parametrów aktualizowane przez algorytm optymalizacji stochastycznego gradientu opadania. |
| pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (długi identyfikator stołu) |
| pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | nazwa_tabeli (ciąg znaków nazwa_tabeli) |
Metody dziedziczone
Metody publiczne
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options config (konfiguracja ciągu)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( zakres zakresu, Long numShards, Long shardId, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parametry
| zakres | aktualny zakres |
|---|---|
| opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
publiczne dane wyjściowe <Float> gradientAccumulators ()
Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adadelta.
publiczne parametry wyjściowe <Float> ()
Parametry parametrów aktualizowane przez algorytm optymalizacji stochastycznego gradientu opadania.