Início Tecnologia A estrutura automática de aprendizado da Apple está obtendo suporte para NVIDIA...

A estrutura automática de aprendizado da Apple está obtendo suporte para NVIDIA GPUS

27
0
Nvidia Apple Intelligence

A estrutura Apple MLX Machine Learning, originalmente projetada para a Apple Silicon, está recebendo um cuda de costas e. Isso significa que os desenvolvedores poderão executar modelos MLX diretamente na GPU da NVIDIA, o que é um grande problema. É por isso.

O trabalho é liderado pelo desenvolvedor @ZCBenz no Github (através do AppleInsider), que iniciou o protótipo do suporte CUDA há alguns meses. Desde então, ele dividiu o projeto em pedaços menores e os uniu gradualmente no ramo principal da Apple MLX.

O backnd ainda está sendo trabalhado, mas várias operações básicas, como multiplicação da matriz, softmax, redução, ordenação e indexação, já são suportadas e testadas.

Espere, o que é Cuda?

Basicamente, o CUDA (ou a arquitetura de dispositivos unificados de computação) é o metal do hardware da NVIDIA: uma plataforma de elaboração que a empresa criou especificamente para executar suas GPUs e aproveitar ao máximo as atividades de processamento paralelo de alto desempenho.

Para muitos, o CUDA é a maneira padrão de realizar cargas de trabalho de aprendizado automático na GPU da NVIDIA e é usado em todo o ecossistema ML, da pesquisa acadêmica à distribuição comercial. Estrutura como Pytorch e Tensorflow, que são nomes cada vez mais familiares, mesmo fora dos clubes profundos de ML, são todos baseados no CUDA para se basear na aceleração da GPU.

Então, por que a Apple da Apple agora suporta CUDA?

Como o MLX é estritamente integrado ao metal nas plataformas da Apple, ele não foi originalmente construído para trabalhar fora do macOS.

Mas adicionar alterações ao cuda de back-end que e oferece a pesquisadores e engenheiros uma maneira de prototipar localmente em um Mac, usando o Silicone Metal e Apple e, em seguida, executar o mesmo código em aglomerados de GPU da NVIDIA em larga escala, que ainda dominam as cargas de treinamento para aprendizado automático.

Dito isto, ainda existem limites, a maioria dos quais está em andamento. Por exemplo, nem todos os operadores da MLX ainda são implementados e o suporte à GPU da AMD é ainda mais longo ao longo do caminho.

No entanto, trazer o código MLX para as GPUs da NVIDIA sem ter que reescrevê -lo abre a porta para casos mais rápidos de testes, experimentação e pesquisa, o que é praticamente tudo o que um desenvolvedor de inteligência artificial pode esperar ouvir.

Se você quiser experimentá -lo sozinho, os detalhes estão disponíveis no Github.

Ofertas do Apple Watch

FTC: Usamos conexões de afiliação automática para obter renda. Além disso.

Fuente