XLA (Accelerated Linear Algebra) เป็นคอมไพเลอร์โอเพ่นซอร์สสำหรับการเรียนรู้ของเครื่อง คอมไพเลอร์ XLA ใช้โมเดลจากเฟรมเวิร์กยอดนิยม เช่น PyTorch, TensorFlow และ JAX และปรับแต่งโมเดลเพื่อการดำเนินการที่มีประสิทธิภาพสูงบนแพลตฟอร์มฮาร์ดแวร์ต่างๆ รวมถึง GPU, CPU และตัวเร่งความเร็ว ML ตัวอย่างเช่น ใน การยื่นเสนอ BERT MLPerf การใช้ XLA กับ GPU Volta V100 จำนวน 8 ตัวได้รับการปรับปรุงประสิทธิภาพ ~7x และการปรับปรุงขนาดแบตช์ ~5x เมื่อเทียบกับ GPU รุ่นเดียวกันที่ไม่มี XLA
ในฐานะส่วนหนึ่งของโครงการ OpenXLA XLA ถูกสร้างขึ้นโดยความร่วมมือโดยบริษัทฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำของอุตสาหกรรม รวมถึง Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta และ NVIDIA
ประโยชน์ที่สำคัญ
สร้างได้ทุกที่ : XLA ได้รวมเข้ากับเฟรมเวิร์ก ML ชั้นนำแล้ว เช่น TensorFlow, PyTorch และ JAX
ทำงานได้ทุกที่ : รองรับแบ็คเอนด์ที่หลากหลาย รวมถึง GPU, CPU และตัวเร่งความเร็ว ML และมีโครงสร้างพื้นฐานแบบเสียบได้เพื่อเพิ่มการรองรับเพิ่มเติม
เพิ่มประสิทธิภาพสูงสุดและปรับขนาด : ปรับประสิทธิภาพของโมเดลให้เหมาะสมด้วยการผ่านการปรับให้เหมาะสมที่ผ่านการทดสอบแล้วและการแบ่งพาร์ติชันอัตโนมัติสำหรับโมเดลแบบขนาน
ขจัดความซับซ้อน : ใช้ประโยชน์จากพลังของ MLIR เพื่อนำความสามารถที่ดีที่สุดมาไว้ใน Toolchain ของคอมไพลเลอร์เดียว ดังนั้นคุณจึงไม่ต้องจัดการคอมไพเลอร์เฉพาะโดเมนที่หลากหลาย
พร้อมสำหรับอนาคต : เนื่องจากเป็นโครงการโอเพ่นซอร์สที่สร้างขึ้นโดยความร่วมมือของผู้จำหน่ายฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำ XLA ได้รับการออกแบบมาเพื่อดำเนินการในระดับแนวหน้าของอุตสาหกรรม ML
เอกสารประกอบ
หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับ XLA โปรดดูคำแนะนำด้านล่าง หากคุณเป็นนักพัฒนา XLA หน้าใหม่ คุณอาจต้องการเริ่มต้นด้วย สถาปัตยกรรม XLA แล้วอ่าน บทวิจารณ์โค้ด
- นามแฝงใน XLA
- สถาปัตยกรรม XLA
- การแพร่ภาพกระจายเสียง
- รีวิวโค้ด
- การโทรแบบกำหนดเองของ XLA
- การพัฒนาแบ็กเอนด์ใหม่สำหรับ XLA
- ความหมายการดำเนินงาน
- รูปร่างและเค้าโครง
- เค้าโครงกระเบื้อง
XLA (Accelerated Linear Algebra) เป็นคอมไพเลอร์โอเพ่นซอร์สสำหรับการเรียนรู้ของเครื่อง คอมไพเลอร์ XLA ใช้โมเดลจากเฟรมเวิร์กยอดนิยม เช่น PyTorch, TensorFlow และ JAX และปรับแต่งโมเดลเพื่อการดำเนินการที่มีประสิทธิภาพสูงบนแพลตฟอร์มฮาร์ดแวร์ต่างๆ รวมถึง GPU, CPU และตัวเร่งความเร็ว ML ตัวอย่างเช่น ใน การยื่นเสนอ BERT MLPerf การใช้ XLA กับ GPU Volta V100 จำนวน 8 ตัวได้รับการปรับปรุงประสิทธิภาพ ~7x และการปรับปรุงขนาดแบตช์ ~5x เมื่อเทียบกับ GPU รุ่นเดียวกันที่ไม่มี XLA
ในฐานะส่วนหนึ่งของโครงการ OpenXLA XLA ถูกสร้างขึ้นโดยความร่วมมือโดยบริษัทฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำของอุตสาหกรรม รวมถึง Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta และ NVIDIA
ประโยชน์ที่สำคัญ
สร้างได้ทุกที่ : XLA ได้รวมเข้ากับเฟรมเวิร์ก ML ชั้นนำแล้ว เช่น TensorFlow, PyTorch และ JAX
ทำงานได้ทุกที่ : รองรับแบ็คเอนด์ที่หลากหลาย รวมถึง GPU, CPU และตัวเร่งความเร็ว ML และมีโครงสร้างพื้นฐานแบบเสียบได้เพื่อเพิ่มการรองรับเพิ่มเติม
เพิ่มประสิทธิภาพสูงสุดและปรับขนาด : ปรับประสิทธิภาพของโมเดลให้เหมาะสมด้วยการผ่านการปรับให้เหมาะสมที่ผ่านการทดสอบแล้วและการแบ่งพาร์ติชันอัตโนมัติสำหรับโมเดลแบบขนาน
ขจัดความซับซ้อน : ใช้ประโยชน์จากพลังของ MLIR เพื่อนำความสามารถที่ดีที่สุดมาไว้ใน Toolchain ของคอมไพลเลอร์เดียว ดังนั้นคุณจึงไม่ต้องจัดการคอมไพเลอร์เฉพาะโดเมนที่หลากหลาย
พร้อมสำหรับอนาคต : เนื่องจากเป็นโครงการโอเพ่นซอร์สที่สร้างขึ้นโดยความร่วมมือของผู้จำหน่ายฮาร์ดแวร์และซอฟต์แวร์ ML ชั้นนำ XLA ได้รับการออกแบบมาเพื่อดำเนินการในระดับแนวหน้าของอุตสาหกรรม ML
เอกสารประกอบ
หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับ XLA โปรดดูคำแนะนำด้านล่าง หากคุณเป็นนักพัฒนา XLA หน้าใหม่ คุณอาจต้องการเริ่มต้นด้วย สถาปัตยกรรม XLA แล้วอ่าน บทวิจารณ์โค้ด