एम्बेडिंग

public struct Embedding<Scalar> : Module where Scalar : TensorFlowFloatingPoint

एक एम्बेडिंग परत.

Embedding प्रभावी रूप से एक लुकअप तालिका है जो एक निश्चित शब्दावली से निश्चित आकार (घने) वेक्टर प्रतिनिधित्व में सूचकांकों को मैप करती है, उदाहरण के लिए [[0], [3]] -> [[0.25, 0.1], [0.6, -0.2]]

  • एक सीखने योग्य लुकअप तालिका जो शब्दावली सूचकांकों को उनके सघन वेक्टर अभ्यावेदन के अनुसार मैप करती है।

    घोषणा

    public var embeddings: Tensor<Scalar>
  • आकार के बेतरतीब ढंग से प्रारंभिक एम्बेडिंग (vocabularySize, embeddingSize) के साथ एक Embedding परत बनाता है ताकि प्रत्येक शब्दावली सूचकांक को एक वेक्टर प्रतिनिधित्व दिया जा सके।

    घोषणा

    public init(
      vocabularySize: Int,
      embeddingSize: Int,
      embeddingsInitializer: ParameterInitializer<Scalar> = { Tensor(randomUniform: $0) }
    )

    पैरामीटर

    vocabularySize

    शब्दावली में विशिष्ट सूचकांकों (शब्दों) की संख्या। यह संख्या सबसे बड़ा पूर्णांक सूचकांक और एक होना चाहिए।

    embeddingSize

    एकल एम्बेडिंग वेक्टर प्रतिनिधित्व में प्रविष्टियों की संख्या।

    embeddingsInitializer

    एम्बेडिंग पैरामीटर के लिए उपयोग करने के लिए इनिशियलाइज़र।

  • दिए गए एम्बेडिंग से एक Embedding परत बनाता है। किसी मॉडल में पूर्व-प्रशिक्षित एम्बेडिंग पेश करने के लिए उपयोगी।

    घोषणा

    public init(embeddings: Tensor<Scalar>)

    पैरामीटर

    embeddings

    पूर्व-प्रशिक्षित एम्बेडिंग तालिका.

  • इनपुट में प्रत्येक इंडेक्स को संबंधित सघन वेक्टर प्रतिनिधित्व के साथ प्रतिस्थापित करके आउटपुट लौटाता है।

    घोषणा

    @differentiable(wrt: self)
    public func forward(_ input: Tensor<Int32>) -> Tensor<Scalar>

    प्रतिलाभ की मात्रा

    इनपुट सूचकांकों को उनके वेक्टर अभ्यावेदन के साथ प्रतिस्थापित करके बनाया गया टेंसर।