12 月 7 日の Women in ML シンポジウムに参加する今すぐ登録する

コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。
public protocol Layer : Module where Self.Input : Differentiable

ニューラルネットワーク層。

準拠するタイプLayer出力にマップ入力その機能を表します。それらは、重みテンソルなどのパラメーターによって表される内部状態を持っている場合があります。

Layerインスタンスは微分定義callAsFunction(_:)入力を出力にマッピングするための方法。

  • 指定された入力にレイヤーを適用して得られた出力を返します。

    宣言

    @differentiable
    func callAsFunction(_ input: Input) -> Output

    パラメーター

    input

    レイヤーへの入力。

    戻り値

    出力。

  • 前方(_:)

    デフォルトの実装

    デフォルトの実装

    宣言

    @differentiable
    func forward(_ input: Input) -> Output
  • 推論(from :)

    拡張方法

    指定された入力にレイヤーを適用して得られた推論出力を返します。

    宣言

    public func inferring(from input: Input) -> Output

    パラメーター

    input

    レイヤーへの入力。

    戻り値

    推論出力。

  • 宣言

    public typealias Backpropagator = (_ direction: Output.TangentVector)
      -> (layerGradient: TangentVector, inputGradient: Input.TangentVector)
  • 指定された入力にレイヤーを適用して得られた推論出力とバックプロパゲーション関数を返します。

    宣言

    public func appliedForBackpropagation(to input: Input)
      -> (output: Output, backpropagator: Backpropagator)

    パラメーター

    input

    レイヤーへの入力。

    戻り値

    出力とバックプロパゲーション関数を含むタプル。バックプロパゲーション関数(別名バックプロパゲーション)は方向ベクトルを取り、レイヤーと入力でそれぞれ勾配を返します。

`Input`:` DifferentiableTensorProtocol`、 `Output`:` DifferentiableTensorProtocol`の場合に使用できます

  • callAsFunction(_ :)

    デフォルトの実装

    デフォルトの実装

    宣言

    @differentiable(wrt: self)
    @differentiable
    public func callAsFunction(_ input: Input) -> Output