XL

XLA (Accelerated Linear Algebra) è un compilatore open source per il machine learning. Il compilatore XLA prende i modelli da framework diffusi come PyTorch, TensorFlow e JAX e ottimizza i modelli per l'esecuzione ad alte prestazioni su diverse piattaforme hardware, tra cui GPU, CPU e acceleratori ML. Ad esempio, in un invio BERT MLPerf, l'utilizzo di XLA con 8 GPU Volta V100 ha ottenuto un miglioramento delle prestazioni di circa 7 volte e un miglioramento delle dimensioni del batch di circa 5 volte rispetto alle stesse GPU senza XLA.

Nell'ambito del progetto OpenXLA, XLA è stato realizzato in collaborazione da aziende di hardware e software ML leader del settore, tra cui Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta e NVIDIA.

Vantaggi principali

  • Crea ovunque: XLA è già integrato nei principali framework ML come TensorFlow, PyTorch e JAX.

  • Esecuzione ovunque: supporta vari backend tra cui GPU, CPU e acceleratori ML e include un'infrastruttura modulare per ampliare il supporto.

  • Massimizza le prestazioni e scala le prestazioni: ottimizza le prestazioni di un modello con pass di ottimizzazione testati in produzione e partizionamento automatico per il parallelismo dei modelli.

  • Eliminare la complessità: sfrutta la potenza di MLIR per integrare le migliori funzionalità in una singola Toolchain del compilatore, in modo da non dover gestire una serie di compilatori specifici del dominio.

  • Predisposizione per il futuro: in quanto progetto open source, realizzato grazie alla collaborazione tra i principali fornitori di hardware e software ML, XLA è progettato per operare all'avanguardia del settore ML.

Documentazione

Per saperne di più su XLA, consulta le guide qui sotto. Se sei un nuovo sviluppatore XLA, potrebbe essere opportuno iniziare con l'architettura XLA e poi leggere Recensioni sul codice.