XLA

XLA (Accelerated Linear Algebra) to kompilator typu open source dla systemów uczących się. Kompilator XLA wykorzystuje modele z popularnych platform, takich jak PyTorch, TensorFlow i JAX, i optymalizuje modele pod kątem wysokiej wydajności na różnych platformach sprzętowych, takich jak GPU, procesory i akceleratory ML. Na przykład w zgłoszeniu BERT MLPerf użycie układów XLA z 8 GPU Volta V100 przyniosło około siedmiokrotnego wzrostu wydajności i około 5-krotnie większej zmiany rozmiaru wsadowego w porównaniu do tych samych GPU bez XLA.

W ramach projektu OpenXLA platforma XLA powstała we współpracy z czołowymi w branży produkcjami sprzętu i oprogramowania ML, takimi jak Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta i NVIDIA.

Najważniejsze zalety

  • Twórz w dowolnym miejscu: język XLA jest już zintegrowany z czołowymi platformami ML, takimi jak TensorFlow, PyTorch i JAX.

  • Działanie w dowolnym miejscu: obsługuje różne backendy, w tym GPU, procesory i akceleratory systemów uczących się, a także zawiera możliwą do połączenia infrastrukturę, która zwiększa obsługę o wiele innych zastosowań.

  • Maksymalizuj i skaluj wydajność: optymalizuje wydajność modelu za pomocą testów optymalizacji produkcyjnych i automatycznego partycjonowania w celu równoległości modelu.

  • Wyeliminuj złożoność: wykorzystuje możliwości MLIR, aby udostępnić najlepsze możliwości w pojedynczym łańcuchu narzędzi kompilatora. Dzięki temu nie musisz zarządzać wieloma kompilatorami związanymi z daną domeną.

  • Gotowość na przyszłość: XLA to projekt open source stworzony we współpracy z czołowymi dostawcami sprzętu i oprogramowania do systemów uczących się, aby działać na miarę branży systemów uczących się.

Dokumentacja

Więcej informacji o XLA znajdziesz w przewodnikach poniżej. Jeśli jesteś nowym deweloperem XLA, możesz zacząć od architektury XLA, a potem przeczytać Opinie o kodzie.