Capa

Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.
public protocol Layer : Module where Self.Input : Differentiable

Una capa de red neuronal.

Los tipos que se ajusten a Layer representan las funciones que se asignan las entradas a las salidas. Pueden tener un estado interno representado por parámetros, como tensores de peso.

Layer casos definen un diferenciable callAsFunction(_:) método para entradas de mapeo a salidas.

  • Devuelve la salida obtenida al aplicar la capa a la entrada dada.

    Declaración

    @differentiable
    func callAsFunction(_ input: Input) -> Output

    Parámetros

    input

    La entrada a la capa.

    Valor devuelto

    La salida.

  • hacia adelante(_:)

    Implementación predeterminada

    Implementación predeterminada

    Declaración

    @differentiable
    func forward(_ input: Input) -> Output
  • inferir (de :)

    Método de extensión

    Devuelve la salida de inferencia obtenida al aplicar la capa a la entrada dada.

    Declaración

    public func inferring(from input: Input) -> Output

    Parámetros

    input

    La entrada a la capa.

    Valor devuelto

    La salida de la inferencia.

  • Retropropagador

    Método de extensión

    Declaración

    public typealias Backpropagator = (_ direction: Output.TangentVector)
      -> (layerGradient: TangentVector, inputGradient: Input.TangentVector)
  • applicationForBackpropagation (a :)

    Método de extensión

    Devuelve la salida de inferencia y la función de retropropagación obtenida al aplicar la capa a la entrada dada.

    Declaración

    public func appliedForBackpropagation(to input: Input)
      -> (output: Output, backpropagator: Backpropagator)

    Parámetros

    input

    La entrada a la capa.

    Valor devuelto

    Una tupla que contiene la salida y la función de retropropagación. La función de retropropagación (también conocida como retropropagador) toma un vector de dirección y devuelve los gradientes en la capa y en la entrada, respectivamente.

Disponible donde `Input`:` DifferentiableTensorProtocol`, `Output`:` DifferentiableTensorProtocol`

  • callAsFunction (_ :)

    Implementación predeterminada

    Implementación predeterminada

    Declaración

    @differentiable(wrt: self)
    @differentiable
    public func callAsFunction(_ input: Input) -> Output