org.tensorflow.framework.optimizers

クラス

エイダデルタAdadelta アルゴリズムを実装するオプティマイザー。
アダグラードAdagrad アルゴリズムを実装するオプティマイザー。
アダグラッドDA Adagrad Dual-Averaging アルゴリズムを実装するオプティマイザー。
アダムAdam アルゴリズムを実装するオプティマイザー。
アダマックスAdamax アルゴリズムを実装するオプティマイザー。
Ftrl FTRL アルゴリズムを実装するオプティマイザー。
勾配降下法基本的な確率的勾配降下法オプティマイザー。
勢いネステロフまたは従来型の確率的勾配降下法と運動量。
ナダムNAdam アルゴリズムを実装する Nadam Optimizer。
オプティマイザ勾配オプティマイザーの基本クラス。
Optimizer.GradAndVar <T はTTypeを拡張 >勾配と変数のペアを保持するクラス。
オプティマイザーのオプションOptimizerのオプションの属性
RMSプロップRMSProp アルゴリズムを実装するオプティマイザー。

列挙型

オプティマイザーデフォルトのパラメーターを使用して新しいオプティマイザーを作成するために使用される列挙子。