Odpowiedz już dziś na lokalne wydarzenie TensorFlow Everywhere!
Ta strona została przetłumaczona przez Cloud Translation API.
Switch to English

Warstwa

public protocol Layer : Module where Self.Input : Differentiable

Warstwa sieci neuronowej.

Typy zgodne z Layer reprezentują funkcje, które mapują dane wejściowe na wyjścia. Mogą mieć stan wewnętrzny reprezentowany przez parametry, takie jak tensory wagi.

Instancje Layer definiują różniczkowalną callAsFunction(_:) do mapowania danych wejściowych na wyjścia.

  • Zwraca dane wyjściowe uzyskane z zastosowania warstwy do danego wejścia.

    Deklaracja

    @differentiable
    func callAsFunction(_ input: Input) -> Output

    Parametry

    input

    Wejście do warstwy.

    Wartość zwracana

    Wyjście.

  • Naprzód(_:)

    Domyślna implementacja

    Domyślna implementacja

    Deklaracja

    @differentiable
    func forward(_ input: Input) -> Output
  • wnioskowanie (z :)

    Metoda przedłużania

    Zwraca wynik wnioskowania uzyskany z zastosowania warstwy do danego wejścia.

    Deklaracja

    public func inferring(from input: Input) -> Output

    Parametry

    input

    Wejście do warstwy.

    Wartość zwracana

    Wynik wnioskowania.

  • Backpropagator

    Metoda przedłużania

    Deklaracja

    public typealias Backpropagator = (_ direction: Output.TangentVector)
      -> (layerGradient: TangentVector, inputGradient: Input.TangentVector)
  • zastosowaneForBackpropagation (do :)

    Metoda przedłużania

    Zwraca wynik wnioskowania i funkcję wstecznej propagacji uzyskaną w wyniku zastosowania warstwy na danym wejściu.

    Deklaracja

    public func appliedForBackpropagation(to input: Input)
      -> (output: Output, backpropagator: Backpropagator)

    Parametry

    input

    Wejście do warstwy.

    Wartość zwracana

    Krotka zawierająca dane wyjściowe i funkcję wstecznej propagacji. Funkcja wstecznej propagacji (zwana też wsteczną propagacją) przyjmuje wektor kierunkowy i zwraca gradienty odpowiednio na warstwie i na wejściu.

Dostępne, gdy `Input`:` DifferentiableTensorProtocol`, `Output`:` DifferentiableTensorProtocol`

  • callAsFunction (_ :)

    Domyślna implementacja

    Domyślna implementacja

    Deklaracja

    @differentiable(wrt: self)
    @differentiable
    public func callAsFunction(_ input: Input) -> Output