Pobierz parametry osadzania Adagrad z obsługą debugowania.
Operacja pobierająca parametry optymalizacyjne z osadzania w pamięci hosta. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do pobierania zaktualizowanych parametrów przed zapisaniem punktu kontrolnego.
Klasy zagnieżdżone
klasa | PobierzTPUEmbeddingAdagradParametersGradAccumDebug.Options | Opcjonalne atrybuty dla RetrieveTPUEmbeddingAdagradParametersGradAccumDebug |
Metody publiczne
Wyjście <Pływak> | akumulatory () Akumulatory parametrów aktualizowane przez algorytm optymalizacji Adagrad. |
pobieranie statyczneTPUEembeddingAdagradParametersGradAccumDebug.Options | konfiguracja (konfiguracja ciągu) |
pobieranie statyczneTPUEembeddingAdagradParametersGradAccumDebug | |
Wyjście <Pływak> | akumulatory gradientowe () Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adagrad. |
Wyjście <Pływak> | parametry () Parametry parametrów aktualizowane przez algorytm optymalizacji Adagrad. |
pobieranie statyczneTPUEembeddingAdagradParametersGradAccumDebug.Options | tableId (długi identyfikator stołu) |
pobieranie statyczneTPUEembeddingAdagradParametersGradAccumDebug.Options | nazwa_tabeli (ciąg znaków nazwa_tabeli) |
Metody dziedziczone
Metody publiczne
publiczne akumulatory wyjściowe <Float> ()
Akumulatory parametrów aktualizowane przez algorytm optymalizacji Adagrad.
public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options config (konfiguracja ciągu)
public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug create ( Zakres zakresu, Long numShards, Long ShardId, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.
Parametry
zakres | aktualny zakres |
---|---|
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja RetrieveTPUEmbeddingAdagradParametersGradAccumDebug
publiczne dane wyjściowe <Float> gradientAccumulators ()
Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adagrad.
publiczne parametry wyjściowe <Float> ()
Parametry parametrów aktualizowane przez algorytm optymalizacji Adagrad.