इस पेज का अनुवाद Cloud Translation API से किया गया है.
Switch to English

परिमाणीकरण बारे में पता प्रशिक्षण

TensorFlow मॉडल अनुकूलन द्वारा बनाए रखा

बाद प्रशिक्षण परिमाणीकरण और परिमाणीकरण बारे में पता प्रशिक्षण: वहाँ परिमाणीकरण के दो प्रकार हैं। के साथ शुरू के बाद प्रशिक्षण परिमाणीकरण के बाद से यह उपयोग करने के लिए आसान है, हालांकि परिमाणीकरण बारे में पता प्रशिक्षण अक्सर बेहतर मॉडल सटीकता के लिए है।

यह पृष्ठ ताकि आप जान सकें कि यह कैसे आपके उपयोग के मामले के साथ फिट बैठता है परिमाणीकरण बारे में पता प्रशिक्षण पर अवलोकन प्रदान करता है।

अवलोकन

परिमाणीकरण बारे में पता प्रशिक्षण अनुमान समय परिमाणीकरण emulates, एक मॉडल है कि नीचे की ओर उपकरण वास्तव में quantized मॉडलों का उत्पादन के लिए प्रयोग करेंगे बनाने। मात्रा निर्धारित मॉडल कम परिशुद्धता (32-बिट नाव के बजाय उदाहरण के 8 बिट) का उपयोग, तैनाती के दौरान लाभ के लिए अग्रणी।

परिमाणीकरण के साथ नियोजित करें

परिमाणीकरण मॉडल संपीड़न और विलंबता कमी के माध्यम से सुधार लाता है। परीक्षण किया बैकेंड में सीपीयू विलंबता में 4x सुधार - एपीआई चूक, 4x द्वारा मॉडल आकार सिकुड़ता है, और के साथ हम आम तौर पर 1.5 के बीच देखते हैं। अंत में, विलंबता सुधार जैसे संगत मशीन सीखने त्वरक, पर देखा जा सकता EdgeTPU और NNAPI।

तकनीक भाषण, दृष्टि, पाठ में उत्पादन में प्रयोग किया, और उपयोग के मामले का अनुवाद है। कोड वर्तमान में एक का समर्थन करता है इन मॉडलों के सबसेट

परिमाणीकरण और संबंधित हार्डवेयर के साथ प्रयोग करें

उपयोगकर्ता परिमाणीकरण मानकों (बिट्स की जैसे संख्या) और कुछ हद तक, अंतर्निहित एल्गोरिदम कॉन्फ़िगर कर सकते हैं। एपीआई चूक से इन परिवर्तनों के साथ, वहाँ कोई समर्थित है तैनाती के लिए पथ।

इस विन्यास के लिए एपीआई विशिष्ट पश्चगामी संगतता के लिए प्रयोगात्मक और नहीं अधीन हैं।

एपीआई संगतता

उपयोगकर्ता निम्न API के साथ परिमाणीकरण आवेदन कर सकते हैं:

  • मॉडल निर्माण: tf.keras केवल अनुक्रमिक और कार्यात्मक मॉडल के साथ।
  • TensorFlow संस्करणों: के लिए tf-रात TF 2.x।
    • tf.compat.v1 एक TF 2.X पैकेज के साथ समर्थित नहीं है।
  • TensorFlow निष्पादन मोड: उत्सुक निष्पादन

यह निम्नलिखित क्षेत्रों में समर्थन जोड़ने के लिए हमारे रोडमैप पर है:

  • मॉडल निर्माण: स्पष्ट कैसे subclassed मॉडल कोई समर्थन नहीं करने के लिए सीमित है
  • वितरित प्रशिक्षण: tf.distribute

जनरल समर्थन मैट्रिक्स

समर्थन निम्नलिखित क्षेत्रों में उपलब्ध है:

  • मॉडल कवरेज: का उपयोग कर मॉडल श्वेतसूची वाले परतों , BatchNormalization जब यह Conv2D और DepthwiseConv2D परतों इस प्रकार है, और सीमित मामलों में, Concat
  • हार्डवेयर त्वरण: हमारी API चूक, EdgeTPU, NNAPI, और TFLite बैकेंड पर त्वरण के साथ संगत कर रहे हैं दूसरों के बीच। रोडमैप में चेतावनी देखें।
  • परिमाणीकरण के साथ नियोजित करें: convolutional परतों, नहीं प्रति-टेन्सर परिमाणीकरण के लिए केवल प्रति अक्ष परिमाणीकरण, वर्तमान में समर्थित है।

यह निम्नलिखित क्षेत्रों में समर्थन जोड़ने के लिए हमारे रोडमैप पर है:

  • मॉडल कवरेज: बढ़ाया RNN / LSTMs और सामान्य Concat समर्थन शामिल करने के लिए।
  • हार्डवेयर त्वरण: TFLite कनवर्टर सुनिश्चित पूर्ण पूर्णांक मॉडलों का उत्पादन कर सकते हैं। देखें इस मुद्दे जानकारी के लिए।
  • परिमाणीकरण उपयोग के मामलों के साथ प्रयोग:
    • परिमाणीकरण एल्गोरिदम उस अवधि Keras परतों के साथ प्रयोग या प्रशिक्षण कदम की आवश्यकता है।
    • एपीआई स्थिर।

परिणाम

उपकरणों के साथ छवि वर्गीकरण

नमूना गैर quantized शीर्ष -1 शुद्धता 8 बिट मात्रा निर्धारित शुद्धता
MobilenetV1 224 71.03% 71.06%
Resnet v1 50 76.3% 76.1%
MobilenetV2 224 70.77% 70.01%

मॉडल Imagenet पर परीक्षण किया और दोनों TensorFlow और TFLite में किया गया।

तकनीक के लिए छवि वर्गीकरण

नमूना गैर quantized शीर्ष -1 शुद्धता 8-बिट मात्रा निर्धारित शुद्धता
Nasnet मोबाइल 74% 73%
Resnet-वी 2 50 75.6% 75%

मॉडल Imagenet पर परीक्षण किया और दोनों TensorFlow और TFLite में किया गया।

उदाहरण

के अलावा परिमाणीकरण बारे में पता प्रशिक्षण उदाहरण के लिए, निम्न उदाहरण देखें:

  • परिमाणीकरण साथ MNIST हस्तलिखित अंकों वर्गीकरण कार्य पर सीएनएन मॉडल: कोड

कुछ इसी तरह की पृष्ठभूमि के लिए, कुशल पूर्णांक-अंकगणित केवल निष्कर्ष के लिए परिमाणीकरण और तंत्रिका नेटवर्क का प्रशिक्षण को देखने के कागज । इस पत्र कि इस उपकरण का उपयोग करता है कुछ अवधारणाओं परिचय देता है। कार्यान्वयन ठीक उसी नहीं है, और वहाँ अतिरिक्त इस उपकरण में इस्तेमाल किया अवधारणाओं (जैसे प्रति अक्ष परिमाणीकरण) कर रहे हैं।