XLA

XLA (Accelerated Linear Algebra) adalah compiler open source untuk machine learning. Compiler XLA mengambil model dari framework populer seperti PyTorch, TensorFlow, dan JAX, serta mengoptimalkan model untuk eksekusi berperforma tinggi di berbagai platform hardware termasuk GPU, CPU, dan akselerator ML. Misalnya, dalam pengiriman BERT MLPerf, penggunaan XLA dengan 8 GPU Volta V100 mencapai peningkatan performa ~7x lipat dan peningkatan ukuran tumpukan ~5x dibandingkan dengan GPU yang sama tanpa XLA.

Sebagai bagian dari project OpenXLA, XLA dibangun secara kolaboratif oleh perusahaan hardware dan software ML terkemuka di industri, termasuk Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta, dan NVIDIA.

Manfaat utama

  • Build Anywhere: XLA sudah terintegrasi ke dalam framework ML terkemuka seperti TensorFlow, PyTorch, dan JAX.

  • Jalankan di mana saja: Platform ini mendukung berbagai backend termasuk GPU, CPU, dan akselerator ML, serta menyertakan infrastruktur yang dapat dicocokkan untuk menambahkan dukungan lainnya.

  • Memaksimalkan dan menskalakan performa: Mengoptimalkan performa model dengan keseluruhan pengoptimalan yang diuji produksi dan partisi otomatis untuk paralelisme model.

  • Menghilangkan kompleksitas: Hal ini memanfaatkan kecanggihan MLIR untuk menghadirkan kemampuan terbaik ke dalam satu toolchain compiler, sehingga Anda tidak perlu mengelola berbagai compiler khusus domain.

  • Siap untuk masa depan: Sebagai project open source, yang dibangun melalui kolaborasi dengan vendor hardware dan software ML terkemuka, XLA dirancang untuk beroperasi di industri ML mutakhir.

Dokumentasi

Untuk mempelajari XLA lebih lanjut, lihat panduan di bawah ini. Jika Anda adalah developer XLA baru, sebaiknya mulai dengan arsitektur XLA, lalu baca Ulasan kode.