Álgebra linear acelerada (XLA, na sigla em inglês)

O XLA (álgebra linear acelerada, na sigla em inglês) é um compilador de código aberto para machine learning. O compilador XLA usa modelos de frameworks conhecidos, como PyTorch, TensorFlow e JAX, e otimiza os modelos para execução de alto desempenho em diferentes plataformas de hardware, incluindo GPUs, CPUs e aceleradores de ML. Por exemplo, em um envio BERT MLPerf (em inglês), o uso de XLA com GPUs de 8 Volta V100 conseguiu uma melhoria de desempenho de aproximadamente 7 vezes e uma melhoria de cerca de 5 vezes no tamanho de lote em comparação com as mesmas GPUs sem XLA.

Como parte do projeto OpenXLA, o XLA é criado de maneira colaborativa por empresas de hardware e software de ML líderes do setor, incluindo Alibaba, Amazon Web Services, AMD, Apple, Arm, Google, Intel, Meta e NVIDIA.

Principais benefícios

  • Criação em qualquer lugar: o XLA já está integrado aos principais frameworks de ML, como TensorFlow, PyTorch e JAX.

  • Execute em qualquer lugar: ele oferece suporte a vários back-ends, incluindo GPUs, CPUs e aceleradores de ML, além de uma infraestrutura conectável para adicionar suporte a mais.

  • Maximizar e escalonar o desempenho: ele otimiza o desempenho de um modelo com passagens de otimização testadas na produção e particionamento automatizado para paralelismo de modelos.

  • Eliminar a complexidade: ele aproveita o poder de MLIR para trazer os melhores recursos em um único conjunto de ferramentas do compilador. Assim, você não precisa gerenciar uma variedade de compiladores específicos do domínio.

  • Pronto para o futuro: como um projeto de código aberto, criado com a colaboração dos principais fornecedores de hardware e software de ML, o XLA foi projetado para operar na tecnologia de ponta do setor de ML.

Documentação

Para saber mais sobre o XLA, confira os guias abaixo. Se você é um desenvolvedor de XLA novo, comece com a arquitetura XLA e depois leia as Avaliações de código.