XLA 輸出

XLA (加速線性代數) 是機器學習的開放原始碼編譯器。XLA 編譯器會從 PyTorch、TensorFlow 和 JAX 等熱門架構取得模型,並可在不同硬體平台上 (包括 GPU、CPU 和機器學習加速器) 將模型最佳化,實現高效能執行作業。舉例來說,在 BERT MLPerf 提交內容中,與沒有 XLA 的相同 GPU 相比,使用 XLA 搭配 XLA 時,效能可提升約 7 倍,批次大小則改善約 5 倍。

XLA 是 OpenXLA 專案的一環,由領先業界的機器學習軟硬體公司合作建構,包括阿里巴巴、Amazon Web Services、AMD、Apple、ARM、Google、Intel、Meta 和 NVIDIA。

主要優點

  • 隨時隨地建構:XLA 已整合至領先業界的機器學習架構,例如 TensorFlow、PyTorch 和 JAX。

  • 在任何位置執行:支援多種後端,包括 GPU、CPU 和機器學習加速器,且提供可插入的基礎架構,提供更多支援。

  • 最大化及擴充效能:透過在實際工作環境中測試的最佳化傳遞,以及用於模型平行處理的自動化分區功能,讓模型達到最佳效能。

  • 消除複雜性:這個程式庫運用 MLIR 的強大功能將最佳功能整合至單一編譯器工具鍊,因此您不必管理多個網域專屬編譯器。

  • 符合未來趨勢:XLA 是一項開放原始碼專案,與頂尖機器學習硬體和軟體供應商合作建構,可在機器學習業界先進運作。

說明文件

如要進一步瞭解 XLA,請參閱下列指南。如果您是新的 XLA 開發人員,建議您先從 XLA 架構著手,然後閱讀程式碼審查