ช่วยปกป้อง Great Barrier Reef กับ TensorFlow บน Kaggle เข้าร่วมท้าทาย

TensorFlow Lite

TensorFlow Lite คือชุดเครื่องมือที่ช่วยให้แมชชีนเลิร์นนิงบนอุปกรณ์ช่วยให้นักพัฒนารันโมเดลของตนบนอุปกรณ์เคลื่อนที่อุปกรณ์ฝังตัวและ IoT

คุณสมบัติที่สำคัญ

  • ปรับให้เหมาะสมสำหรับการเรียนรู้ของเครื่องบนอุปกรณ์ โดยกำหนดข้อ จำกัด ที่สำคัญ 5 ประการ ได้แก่ เวลาแฝง (ไม่มีการเดินทางไปกลับเซิร์ฟเวอร์) ความเป็นส่วนตัว (ไม่มีข้อมูลส่วนบุคคลออกจากอุปกรณ์) การเชื่อมต่อ (ไม่จำเป็นต้องเชื่อมต่ออินเทอร์เน็ต) ขนาด (รุ่นลดลงและ ขนาดไบนารี) และการใช้พลังงาน (การอนุมานที่มีประสิทธิภาพและการขาดการเชื่อมต่อเครือข่าย)
  • รองรับหลายแพลตฟอร์ม ครอบคลุม อุปกรณ์ Android และ iOS ลินุกซ์ในตัว และ ไมโครคอนโทรลเลอร์
  • รองรับภาษาที่หลากหลาย ซึ่งรวมถึง Java, Swift, Objective-C, C ++ และ Python
  • ประสิทธิภาพสูง พร้อม การเร่งฮาร์ดแวร์ และการปรับ รุ่นให้เหมาะสม
  • ตัวอย่างแบบ end-to-end สำหรับงานแมชชีนเลิร์นนิงทั่วไปเช่นการจัดประเภทรูปภาพการตรวจจับวัตถุการประมาณค่าโพสต์การตอบคำถามการจัดประเภทข้อความ ฯลฯ บนหลายแพลตฟอร์ม

ขั้นตอนการพัฒนา

คำแนะนำต่อไปนี้จะอธิบายแต่ละขั้นตอนของเวิร์กโฟลว์และมีลิงก์ไปยังคำแนะนำเพิ่มเติม:

1. สร้างแบบจำลอง TensorFlow Lite

โมเดล TensorFlow Lite แสดงในรูปแบบพกพาที่มีประสิทธิภาพพิเศษที่เรียกว่า FlatBuffers (ระบุโดยนามสกุลไฟล์. tflite ) สิ่งนี้ให้ข้อดีหลายประการเหนือรูปแบบรูปแบบบัฟเฟอร์โปรโตคอลของ TensorFlow เช่นขนาดที่ลดลง (ขนาดเล็กลง) และการอนุมานที่เร็วขึ้น (เข้าถึงข้อมูลได้โดยตรงโดยไม่ต้องมีขั้นตอนการแยกวิเคราะห์ / คลายแพ็กเกจเพิ่มเติม) ซึ่งทำให้ TensorFlow Lite สามารถดำเนินการได้อย่างมีประสิทธิภาพบนอุปกรณ์ที่มีทรัพยากรการประมวลผลและหน่วยความจำ จำกัด .

โมเดล TensorFlow Lite สามารถเลือกที่จะรวม ข้อมูลเมตา ที่มีคำอธิบายโมเดลที่มนุษย์อ่านได้และข้อมูลที่เครื่องอ่านได้สำหรับการสร้างไปป์ไลน์ก่อนและหลังการประมวลผลโดยอัตโนมัติในระหว่างการอนุมานบนอุปกรณ์ โปรดดูที่ เพิ่มข้อมูลเมตา สำหรับรายละเอียดเพิ่มเติม

คุณสามารถสร้างแบบจำลอง TensorFlow Lite ได้ด้วยวิธีต่อไปนี้:

  • ใช้โมเดล TensorFlow Lite ที่มีอยู่: ดู ตัวอย่าง TensorFlow Lite เพื่อเลือกโมเดลที่มีอยู่ โมเดลอาจมีหรือไม่มีข้อมูลเมตา

  • สร้างโมเดล TensorFlow Lite: ใช้ TensorFlow Lite Model Maker เพื่อสร้างโมเดลด้วยชุดข้อมูลที่คุณกำหนดเอง โดยค่าเริ่มต้นโมเดลทั้งหมดจะมีข้อมูลเมตา

  • แปลงโมเดล TensorFlow เป็นโมเดล TensorFlow Lite: ใช้ TensorFlow Lite Converter เพื่อแปลงโมเดล TensorFlow เป็นโมเดล TensorFlow Lite ในระหว่างการแปลงคุณสามารถใช้ การเพิ่มประสิทธิภาพ เช่นการ หาปริมาณ เพื่อลดขนาดและเวลาในการตอบสนองของโมเดลโดยให้ความแม่นยำน้อยที่สุดหรือไม่มีเลย โดยค่าเริ่มต้นโมเดลทั้งหมดจะไม่มีข้อมูลเมตา

2. เรียกใช้การอนุมาน

การอนุมาน หมายถึงกระบวนการดำเนินการแบบจำลอง TensorFlow Lite บนอุปกรณ์เพื่อทำการคาดคะเนตามข้อมูลอินพุต คุณสามารถเรียกใช้การอนุมานได้ด้วยวิธีต่อไปนี้ตามประเภทโมเดล:

ในอุปกรณ์ Android และ iOS คุณสามารถปรับปรุงประสิทธิภาพได้โดยใช้การเร่งฮาร์ดแวร์ คุณสามารถใช้ GPU Delegate บนแพลตฟอร์มใดก็ได้บน Android คุณสามารถใช้ NNAPI Delegate (สำหรับอุปกรณ์รุ่นใหม่) หรือ Hexagon Delegate (บนอุปกรณ์รุ่นเก่า) และบน iOS คุณสามารถใช้ Core ML Delegate หากต้องการเพิ่มการสนับสนุนสำหรับตัวเร่งฮาร์ดแวร์ใหม่คุณสามารถ กำหนดผู้รับมอบสิทธิ์ของคุณเองได้

เริ่ม

คุณสามารถอ้างอิงคำแนะนำต่อไปนี้ตามอุปกรณ์เป้าหมายของคุณ:

ข้อ จำกัด ทางเทคนิค