Wiki40B भाषा मॉडल

TensorFlow.org पर देखें Google Colab में चलाएं गिटहब पर देखें नोटबुक डाउनलोड करें TF हब मॉडल देखें

विकिपीडिया की तरह उत्पन्न Wiki40B भाषा मॉडल से उपयोग करते हुए पाठ TensorFlow हब !

यह नोटबुक बताती है कि कैसे:

  • लोड 41 एकल-और 2 बहुभाषी भाषा मॉडल का हिस्सा हैं Wiki40b-एल एम संग्रह TF-हब पर
  • पाठ के किसी दिए गए टुकड़े के लिए प्रति परत सक्रियण, और शब्द एम्बेडिंग प्राप्त करने के लिए मॉडल का उपयोग करें
  • बीज टेक्स्ट के एक टुकड़े से टोकन-दर-टोकन टेक्स्ट जेनरेट करें

भाषा मॉडल, नए प्रकाशित पर प्रशिक्षित किया जाता है साफ- Wiki40B डाटासेट TensorFlow डेटासेट पर उपलब्ध है। प्रशिक्षण सेटअप कागज पर आधारित है ": बहुभाषी भाषा मॉडल डेटासेट विकी-40B"

सेट अप

निर्भरता स्थापित करना

आयात

भाषा चुनें

के जो भाषा मॉडल TF-हब से लोड करने के लिए और पाठ की लंबाई उत्पन्न किया जा करने के लिए चुनते हैं।

Using the https://tfhub.dev/google/wiki40b-lm-en/1 model to generate sequences of max length 20.

मॉडल बनाएं

ठीक है, अब है कि हम कॉन्फ़िगर कर दिया है जो पहले से प्रशिक्षित उपयोग करने के लिए मॉडल, चलो कॉन्फ़िगर इसे करने के लिए पाठ उत्पन्न करने के लिए करते हैं max_gen_len । हमें टीएफ-हब से भाषा मॉडल लोड करना होगा, स्टार्टर टेक्स्ट के एक टुकड़े में फीड करना होगा, और फिर टोकन में पुनरावृत्त रूप से फीड करना होगा क्योंकि वे उत्पन्न होते हैं।

भाषा मॉडल के टुकड़े लोड करें

2021-11-05 13:33:19.950673: W tensorflow/core/common_runtime/graph_constructor.cc:1511] Importing a graph with a lower producer version 359 into an existing graph with producer version 808. Shape inference will have run different parts of the graph with different producer versions.

प्रति-टोकन पीढ़ी के ग्राफ का निर्माण करें

के लिए स्थिर unrolled ग्राफ बिल्ड max_gen_len टोकन

कुछ पाठ उत्पन्न करें

आइए कुछ पाठ उत्पन्न करें! हम एक पाठ सेट करेंगे seed भाषा मॉडल संकेत करने के लिए।

आप पूर्वनिर्धारित बीज से एक का उपयोग कर सकते हैं या वैकल्पिक रूप से अपने खुद के दर्ज करें। इस पाठ का उपयोग भाषा मॉडल के लिए बीज के रूप में किया जाएगा ताकि भाषा मॉडल को आगे क्या उत्पन्न किया जाए, इसके लिए संकेत दिया जा सके।

आप जनरेट किए गए लेख के विशेष भागों से पहले निम्नलिखित विशेष टोकन का उपयोग कर सकते हैं। उपयोग _START_ARTICLE_ इंगित करने के लिए लेख की शुरुआत, _START_SECTION_ एक खंड की शुरुआत का संकेत करने के लिए, और _START_PARAGRAPH_ लेख में पाठ उत्पन्न करने के लिए

पूर्वनिर्धारित बीज

अपना खुद का बीज दर्ज करें (वैकल्पिक)।

Generating text from seed:

_START_ARTICLE_
1882 Prince Edward Island general election
_START_PARAGRAPH_
The 1882 Prince Edward Island election was held on May 8, 1882 to elect members of the House of Assembly of the province of Prince Edward Island, Canada.

सत्र प्रारंभ करें।

पाठ उत्पन्न करें

_START_SECTION_ Candidates _START_PARAGRAPH_ Thirteen members of the House of Assembly were all members nominations. Among

हम मॉडल के अन्य आउटपुट को भी देख सकते हैं - उलझन, टोकन आईडी, मध्यवर्ती सक्रियण और एम्बेडिंग

ppl_result
array([23.507753], dtype=float32)
token_ids_result
array([[   8,    3, 6794, 1579, 1582,  721,  489,  448,    8,    5,   26,
        6794, 1579, 1582,  721,  448,   17,  245,   22,  166, 2928, 6794,
          16, 7690,  384,   11,    7,  402,   11, 1172,   11,    7, 2115,
          11, 1579, 1582,  721,    9,  646,   10]], dtype=int32)
activations_result.shape
(12, 1, 39, 768)
embeddings_result
array([[[ 0.12262525,  5.548009  ,  1.4743135 , ...,  2.4388404 ,
         -2.2788858 ,  2.172028  ],
        [-2.3905468 , -0.97108954, -1.5513545 , ...,  8.458472  ,
         -2.8723319 ,  0.6534524 ],
        [-0.83790785,  0.41630274, -0.8740793 , ...,  1.6446769 ,
         -0.9074106 ,  0.3339265 ],
        ...,
        [-0.8054745 , -1.2495526 ,  2.6232922 , ...,  2.893288  ,
         -0.91287214, -1.1259722 ],
        [ 0.64944506,  3.3696785 ,  0.09543293, ..., -0.7839227 ,
         -1.3573489 ,  1.862214  ],
        [-1.2970612 ,  0.5961366 ,  3.3531897 , ...,  3.2853985 ,
         -1.6212384 ,  0.30257902]]], dtype=float32)