XLA (Đại số tuyến tính tăng tốc) là một trình biên dịch mã nguồn mở dành cho học máy. Trình biên dịch XLA lấy các mô hình từ các khung phổ biến như PyTorch, TensorFlow và JAX, đồng thời tối ưu hóa các mô hình để thực thi hiệu suất cao trên các nền tảng phần cứng khác nhau bao gồm GPU, CPU và bộ tăng tốc ML. Ví dụ: trong lần gửi BERT MLPerf , việc sử dụng XLA với 8 GPU Volta V100 đã đạt được mức cải thiện hiệu suất ~7 lần và cải thiện kích thước lô ~5 lần so với các GPU tương tự không có XLA.
Là một phần của dự án OpenXLA, XLA được xây dựng với sự cộng tác của các công ty phần cứng và phần mềm ML hàng đầu trong ngành, bao gồm Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta và NVIDIA.
Lợi ích chính
Xây dựng ở mọi nơi : XLA đã được tích hợp vào các khung ML hàng đầu như TensorFlow, PyTorch và JAX.
Chạy mọi nơi : Nó hỗ trợ nhiều chương trình phụ trợ khác nhau bao gồm GPU, CPU và bộ tăng tốc ML, đồng thời bao gồm cơ sở hạ tầng có thể cắm thêm để hỗ trợ nhiều hơn nữa.
Tối đa hóa và mở rộng quy mô hiệu suất : Nó tối ưu hóa hiệu suất của mô hình bằng các bước tối ưu hóa đã được thử nghiệm trong quá trình sản xuất và phân vùng tự động cho tính song song của mô hình.
Loại bỏ sự phức tạp : Nó tận dụng sức mạnh của MLIR để mang những khả năng tốt nhất vào một chuỗi công cụ biên dịch duy nhất, do đó bạn không cần phải quản lý nhiều trình biên dịch theo miền cụ thể.
Sẵn sàng cho tương lai : Là một dự án nguồn mở, được xây dựng thông qua sự hợp tác của các nhà cung cấp phần cứng và phần mềm ML hàng đầu, XLA được thiết kế để hoạt động ở vị trí tiên tiến nhất của ngành ML.
Tài liệu
Để tìm hiểu thêm về XLA, hãy xem hướng dẫn bên dưới. Nếu bạn là nhà phát triển XLA mới, bạn có thể muốn bắt đầu với kiến trúc XLA và sau đó đọc các bài đánh giá về Mã .
- Bí danh trong XLA
- Kiến trúc XLA
- Phát thanh truyền hình
- Đánh giá mã
- Cuộc gọi tùy chỉnh XLA
- Phát triển phần phụ trợ mới cho XLA
- Ngữ nghĩa hoạt động
- Hình dạng và bố cục
- Bố cục lát gạch
XLA (Đại số tuyến tính tăng tốc) là một trình biên dịch mã nguồn mở dành cho học máy. Trình biên dịch XLA lấy các mô hình từ các khung phổ biến như PyTorch, TensorFlow và JAX, đồng thời tối ưu hóa các mô hình để thực thi hiệu suất cao trên các nền tảng phần cứng khác nhau bao gồm GPU, CPU và bộ tăng tốc ML. Ví dụ: trong lần gửi BERT MLPerf , việc sử dụng XLA với 8 GPU Volta V100 đã đạt được mức cải thiện hiệu suất ~7 lần và cải thiện kích thước lô ~5 lần so với các GPU tương tự không có XLA.
Là một phần của dự án OpenXLA, XLA được xây dựng với sự cộng tác của các công ty phần cứng và phần mềm ML hàng đầu trong ngành, bao gồm Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta và NVIDIA.
Lợi ích chính
Xây dựng ở mọi nơi : XLA đã được tích hợp vào các khung ML hàng đầu như TensorFlow, PyTorch và JAX.
Chạy mọi nơi : Nó hỗ trợ nhiều chương trình phụ trợ khác nhau bao gồm GPU, CPU và bộ tăng tốc ML, đồng thời bao gồm cơ sở hạ tầng có thể cắm thêm để hỗ trợ nhiều hơn nữa.
Tối đa hóa và mở rộng quy mô hiệu suất : Nó tối ưu hóa hiệu suất của mô hình bằng các bước tối ưu hóa đã được thử nghiệm trong quá trình sản xuất và phân vùng tự động cho tính song song của mô hình.
Loại bỏ sự phức tạp : Nó tận dụng sức mạnh của MLIR để mang những khả năng tốt nhất vào một chuỗi công cụ biên dịch duy nhất, do đó bạn không cần phải quản lý nhiều trình biên dịch theo miền cụ thể.
Sẵn sàng cho tương lai : Là một dự án nguồn mở, được xây dựng thông qua sự hợp tác của các nhà cung cấp phần cứng và phần mềm ML hàng đầu, XLA được thiết kế để hoạt động ở vị trí tiên tiến nhất của ngành ML.
Tài liệu
Để tìm hiểu thêm về XLA, hãy xem hướng dẫn bên dưới. Nếu bạn là nhà phát triển XLA mới, bạn có thể muốn bắt đầu với kiến trúc XLA và sau đó đọc các bài đánh giá về Mã .