ขนาด XLA

XLA (Accelerated Linear Algebra) เป็นคอมไพเลอร์โอเพ่นซอร์สสำหรับการเรียนรู้ของเครื่อง คอมไพเลอร์ XLA ใช้โมเดลจากเฟรมเวิร์กยอดนิยม เช่น PyTorch, TensorFlow และ JAX และปรับแต่งโมเดลเพื่อการดำเนินการที่มีประสิทธิภาพสูงบนแพลตฟอร์มฮาร์ดแวร์ต่างๆ รวมถึง GPU, CPU และตัวเร่งความเร็ว ML ตัวอย่างเช่น ใน การยื่นเสนอ BERT MLPerf การใช้ XLA กับ GPU Volta V100 จำนวน 8 ตัวได้รับการปรับปรุงประสิทธิภาพ ~7x และการปรับปรุงขนาดแบตช์ ~5x เมื่อเทียบกับ GPU รุ่นเดียวกันที่ไม่มี XLA

ในฐานะส่วนหนึ่งของโครงการ OpenXLA XLA ถูกสร้างขึ้นโดยความร่วมมือโดยบริษัทฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำของอุตสาหกรรม รวมถึง Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta และ NVIDIA

ประโยชน์ที่สำคัญ

  • สร้างได้ทุกที่ : XLA ได้รวมเข้ากับเฟรมเวิร์ก ML ชั้นนำแล้ว เช่น TensorFlow, PyTorch และ JAX

  • ทำงานได้ทุกที่ : รองรับแบ็คเอนด์ที่หลากหลาย รวมถึง GPU, CPU และตัวเร่งความเร็ว ML และมีโครงสร้างพื้นฐานแบบเสียบได้เพื่อเพิ่มการรองรับเพิ่มเติม

  • เพิ่มประสิทธิภาพสูงสุดและปรับขนาด : ปรับประสิทธิภาพของโมเดลให้เหมาะสมด้วยการผ่านการปรับให้เหมาะสมที่ผ่านการทดสอบแล้วและการแบ่งพาร์ติชันอัตโนมัติสำหรับโมเดลแบบขนาน

  • ขจัดความซับซ้อน : ใช้ประโยชน์จากพลังของ MLIR เพื่อนำความสามารถที่ดีที่สุดมาไว้ใน Toolchain ของคอมไพลเลอร์เดียว ดังนั้นคุณจึงไม่ต้องจัดการคอมไพเลอร์เฉพาะโดเมนที่หลากหลาย

  • พร้อมสำหรับอนาคต : เนื่องจากเป็นโครงการโอเพ่นซอร์สที่สร้างขึ้นโดยความร่วมมือของผู้จำหน่ายฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำ XLA ได้รับการออกแบบมาเพื่อดำเนินการในระดับแนวหน้าของอุตสาหกรรม ML

เอกสารประกอบ

หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับ XLA โปรดดูคำแนะนำด้านล่าง หากคุณเป็นนักพัฒนา XLA หน้าใหม่ คุณอาจต้องการเริ่มต้นด้วย สถาปัตยกรรม XLA แล้วอ่าน บทวิจารณ์โค้ด

,

XLA (Accelerated Linear Algebra) เป็นคอมไพเลอร์โอเพ่นซอร์สสำหรับการเรียนรู้ของเครื่อง คอมไพเลอร์ XLA ใช้โมเดลจากเฟรมเวิร์กยอดนิยม เช่น PyTorch, TensorFlow และ JAX และปรับแต่งโมเดลเพื่อการดำเนินการที่มีประสิทธิภาพสูงบนแพลตฟอร์มฮาร์ดแวร์ต่างๆ รวมถึง GPU, CPU และตัวเร่งความเร็ว ML ตัวอย่างเช่น ใน การยื่นเสนอ BERT MLPerf การใช้ XLA กับ GPU Volta V100 จำนวน 8 ตัวได้รับการปรับปรุงประสิทธิภาพ ~7x และการปรับปรุงขนาดแบตช์ ~5x เมื่อเทียบกับ GPU รุ่นเดียวกันที่ไม่มี XLA

ในฐานะส่วนหนึ่งของโครงการ OpenXLA XLA ถูกสร้างขึ้นโดยความร่วมมือโดยบริษัทฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำของอุตสาหกรรม รวมถึง Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta และ NVIDIA

ประโยชน์ที่สำคัญ

  • สร้างได้ทุกที่ : XLA ได้รวมเข้ากับเฟรมเวิร์ก ML ชั้นนำแล้ว เช่น TensorFlow, PyTorch และ JAX

  • ทำงานได้ทุกที่ : รองรับแบ็คเอนด์ที่หลากหลาย รวมถึง GPU, CPU และตัวเร่งความเร็ว ML และมีโครงสร้างพื้นฐานแบบเสียบได้เพื่อเพิ่มการรองรับเพิ่มเติม

  • เพิ่มประสิทธิภาพสูงสุดและปรับขนาด : ปรับประสิทธิภาพของโมเดลให้เหมาะสมด้วยการผ่านการปรับให้เหมาะสมที่ผ่านการทดสอบแล้วและการแบ่งพาร์ติชันอัตโนมัติสำหรับโมเดลแบบขนาน

  • ขจัดความซับซ้อน : ใช้ประโยชน์จากพลังของ MLIR เพื่อนำความสามารถที่ดีที่สุดมาไว้ใน Toolchain ของคอมไพลเลอร์เดียว ดังนั้นคุณจึงไม่ต้องจัดการคอมไพเลอร์เฉพาะโดเมนที่หลากหลาย

  • พร้อมสำหรับอนาคต : เนื่องจากเป็นโครงการโอเพ่นซอร์สที่สร้างขึ้นโดยความร่วมมือของผู้จำหน่ายฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำ XLA ได้รับการออกแบบมาเพื่อดำเนินการในระดับแนวหน้าของอุตสาหกรรม ML

เอกสารประกอบ

หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับ XLA โปรดดูคำแนะนำด้านล่าง หากคุณเป็นนักพัฒนา XLA หน้าใหม่ คุณอาจต้องการเริ่มต้นด้วย สถาปัตยกรรม XLA แล้วอ่าน บทวิจารณ์โค้ด