XLA

XLA (Hızlandırılmış Doğrusal Cebir), makine öğrenimi için açık kaynaklı bir derleyicidir. XLA derleyicisi, PyTorch, TensorFlow ve JAX gibi popüler çerçevelerden modeller alır ve modelleri GPU'lar, CPU'lar ve ML hızlandırıcılar dahil olmak üzere farklı donanım platformlarında yüksek performanslı yürütme için optimize eder. Örneğin, bir BERT MLPerf gönderiminde , 8 Volta V100 GPU'larla XLA kullanıldığında, XLA'sız aynı GPU'lara kıyasla ~7 kat performans artışı ve ~5 kat toplu iş boyutunda iyileştirme elde edildi.

OpenXLA projesinin bir parçası olarak XLA, aralarında Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta ve NVIDIA'nın da bulunduğu sektör lideri makine öğrenimi donanım ve yazılım şirketleri tarafından ortaklaşa geliştirildi.

Temel faydalar

  • Her yerde oluşturun : XLA halihazırda TensorFlow, PyTorch ve JAX gibi önde gelen makine öğrenimi çerçevelerine entegre edilmiştir.

  • Her yerde çalıştırın : GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcıları dahil olmak üzere çeşitli arka uçları destekler ve daha fazlasına destek eklemek için takılabilir bir altyapı içerir.

  • Performansı en üst düzeye çıkarın ve ölçeklendirin : Üretimde test edilmiş optimizasyon geçişleri ve model paralelliği için otomatik bölümleme ile modelin performansını optimize eder.

  • Karmaşıklığı ortadan kaldırın : En iyi yetenekleri tek bir derleyici araç zincirine getirmek için MLIR'in gücünden yararlanır, böylece bir dizi alana özgü derleyiciyi yönetmeniz gerekmez.

  • Geleceğe hazır : Önde gelen makine öğrenimi donanım ve yazılım satıcılarının işbirliğiyle oluşturulan açık kaynaklı bir proje olan XLA, makine öğrenimi sektörünün en ileri noktasında çalışacak şekilde tasarlanmıştır.

Dokümantasyon

XLA hakkında daha fazla bilgi edinmek için aşağıdaki kılavuzlara göz atın. Yeni bir XLA geliştiricisiyseniz, XLA mimarisiyle başlayıp ardından Kod incelemelerini okumak isteyebilirsiniz.

,

XLA (Hızlandırılmış Doğrusal Cebir), makine öğrenimi için açık kaynaklı bir derleyicidir. XLA derleyicisi, PyTorch, TensorFlow ve JAX gibi popüler çerçevelerden modeller alır ve modelleri GPU'lar, CPU'lar ve ML hızlandırıcılar dahil olmak üzere farklı donanım platformlarında yüksek performanslı yürütme için optimize eder. Örneğin, bir BERT MLPerf gönderiminde , 8 Volta V100 GPU'larla XLA kullanıldığında, XLA'sız aynı GPU'lara kıyasla ~7 kat performans artışı ve ~5 kat toplu iş boyutunda iyileştirme elde edildi.

OpenXLA projesinin bir parçası olarak XLA, aralarında Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta ve NVIDIA'nın da bulunduğu sektör lideri makine öğrenimi donanım ve yazılım şirketleri tarafından ortaklaşa geliştirildi.

Temel faydalar

  • Her yerde oluşturun : XLA halihazırda TensorFlow, PyTorch ve JAX gibi önde gelen makine öğrenimi çerçevelerine entegre edilmiştir.

  • Her yerde çalıştırın : GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcıları dahil olmak üzere çeşitli arka uçları destekler ve daha fazlasına destek eklemek için takılabilir bir altyapı içerir.

  • Performansı en üst düzeye çıkarın ve ölçeklendirin : Üretimde test edilmiş optimizasyon geçişleri ve model paralelliği için otomatik bölümleme ile modelin performansını optimize eder.

  • Karmaşıklığı ortadan kaldırın : En iyi yetenekleri tek bir derleyici araç zincirine getirmek için MLIR'in gücünden yararlanır, böylece bir dizi alana özgü derleyiciyi yönetmeniz gerekmez.

  • Geleceğe hazır : Önde gelen makine öğrenimi donanım ve yazılım satıcılarının işbirliğiyle oluşturulan açık kaynaklı bir proje olan XLA, makine öğrenimi sektörünün en ileri noktasında çalışacak şekilde tasarlanmıştır.

Dokümantasyon

XLA hakkında daha fazla bilgi edinmek için aşağıdaki kılavuzlara göz atın. Yeni bir XLA geliştiricisiyseniz, XLA mimarisiyle başlayıp ardından Kod incelemelerini okumak isteyebilirsiniz.