XLA

XLA (Accelerated Linear Gebra) یک کامپایلر منبع باز برای یادگیری ماشین است. کامپایلر XLA مدل‌هایی را از چارچوب‌های محبوبی مانند PyTorch، TensorFlow و JAX می‌گیرد و مدل‌ها را برای اجرای با کارایی بالا در پلتفرم‌های سخت‌افزاری مختلف از جمله GPU، CPU و شتاب‌دهنده‌های ML بهینه می‌کند. به عنوان مثال، در یک ارسال BERT MLPerf ، استفاده از XLA با 8 واحد گرافیکی Volta V100 در مقایسه با همان GPUهای بدون XLA به بهبود عملکرد ~ 7 برابری و ~ 5 برابر بهبود سایز دسته ای دست یافت.

به عنوان بخشی از پروژه OpenXLA، XLA با همکاری شرکت های سخت افزار و نرم افزار ML پیشرو در صنعت، از جمله Alibaba، Amazon Web Services، AMD، Apple، Arm، Google، Intel، Meta و NVIDIA ساخته شده است.

مزایای کلیدی

  • ساخت هر کجا : XLA در حال حاضر در چارچوب های ML پیشرو مانند TensorFlow، PyTorch و JAX ادغام شده است.

  • Run anywhere : از پشتیبان‌های مختلف از جمله GPU، CPU و شتاب‌دهنده‌های ML پشتیبانی می‌کند و شامل یک زیرساخت قابل اتصال برای افزودن پشتیبانی بیشتر است.

  • حداکثر کردن و مقیاس کردن عملکرد : عملکرد یک مدل را با پاس های بهینه سازی آزمایش شده تولید و پارتیشن بندی خودکار برای موازی سازی مدل بهینه می کند.

  • از بین بردن پیچیدگی : از قدرت MLIR استفاده می کند تا بهترین قابلیت ها را در یک زنجیره ابزار کامپایلر به ارمغان بیاورد، بنابراین شما مجبور نیستید طیف وسیعی از کامپایلرهای خاص دامنه را مدیریت کنید.

  • آماده آینده : به عنوان یک پروژه منبع باز، ساخته شده از طریق همکاری فروشندگان پیشرو سخت افزار و نرم افزار ML، XLA برای کار در صنعت ML طراحی شده است.

مستندات

برای کسب اطلاعات بیشتر در مورد XLA، پیوندهای سمت چپ را بررسی کنید. اگر یک توسعه دهنده جدید XLA هستید، ممکن است بخواهید با معماری XLA شروع کنید و سپس نظرات کد را بخوانید.