XLA

XLA (Accelerated Linear Algebra) est un compilateur Open Source pour le machine learning. Le compilateur XLA exploite des modèles issus de frameworks courants tels que PyTorch, TensorFlow et JAX, et les optimise pour une exécution hautes performances sur différentes plates-formes matérielles, y compris les GPU, les processeurs et les accélérateurs ML. Par exemple, dans une envoi BERT MLPerf, l'utilisation de la XLA avec huit GPU Volta V100 a permis d'améliorer les performances d'environ 7 fois et la taille de lot par cinq, par rapport aux mêmes GPU sans XLA.

Dans le cadre du projet OpenXLA, XLA est conçu en collaboration par des éditeurs de matériel et de logiciels ML de pointe, comme Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta et NVIDIA.

Principaux avantages

  • Compilez où que vous soyez: XLA est déjà intégré aux principaux frameworks de ML tels que TensorFlow, PyTorch et JAX.

  • Exécution n'importe où: la plate-forme est compatible avec divers backends, y compris les GPU, les processeurs et les accélérateurs de ML, et inclut une infrastructure connectable pour en faire plus.

  • Maximiser et faire évoluer les performances: elle optimise les performances d'un modèle à l'aide de passes d'optimisation testées en production et du partitionnement automatisé pour le parallélisme des modèles.

  • Éliminez la complexité: elle exploite la puissance de MLIR pour intégrer les meilleures fonctionnalités dans une seule chaîne d'outils de compilation. Vous n'avez donc pas à gérer plusieurs compilateurs spécifiques à un domaine.

  • Une solution adaptée à l'avenir: en tant que projet Open Source, conçu grâce à la collaboration d'éminents fournisseurs de logiciels et de matériel de ML, XLA est conçu pour fonctionner à la pointe de l'industrie du ML.

Documentation

Pour en savoir plus sur la XLA, consultez les guides ci-dessous. Si vous êtes un nouveau développeur XLA, vous pouvez commencer par l'architecture XLA, puis lire la section Examens de code.