Esta tecnologia de memória inovadora pode tornar a IA 1.000 vezes mais eficiente

Todos nós sabemos que a IA tem um problema de energia. No geral, o uso world da IA ​​já atraiu tanta energia quanto toda a nação de Chipre fez em 2021.

Mas pesquisadores de engenharia da College of Minnesota Twin Cities desenvolveram e demonstraram um novo design de memória de computador que poderia reduzir drasticamente a quantidade de energia que os sistemas de IA consomem para ajudar a amenizar esse problema. pesquisa foi publicada recentemente na revista Nature Unconventional Computing.

A maioria dos sistemas de computação modernos são construídos no que é conhecido como arquitetura Von Neumann, onde os subsistemas de lógica e memória são separados. Durante as operações normais, os dados são transportados de um lado para o outro entre os módulos de memória e os processadores. Esta é a fundação básica da operação dos computadores modernos.

No entanto, à medida que as velocidades de processamento ultrapassam rapidamente a tecnologia de E/Sessa transferência de dados se torna um gargalo tanto em termos de velocidade de processamento (também conhecida como problema de parede de memória) e consumo de energia. Como os pesquisadores apontaram, apenas embaralhar os dados para frente e para trás consome até 200 vezes a quantidade de energia que os próprios cálculos consomem.

Os desenvolvedores têm procurado contornar esse problema aproximando fisicamente a lógica e a memória com designs de computação “near-memory” e “in-memory”. Os sistemas near-memory empilham a lógica e a memória uma sobre a outra em uma matriz 3D, eles são dispostos em camadas no estilo PB&J, enquanto os sistemas in-memory intercalam clusters de lógica por toda a memória em um único chip, mais como um sanduíche de manteiga de amendoim e banana.

A solução da equipe de pesquisa Twin Cities é um novo design totalmente digital na memória, denominado memória de acesso aleatório computacional (CRAM), em que “a lógica é executada nativamente pelas células de memória; os dados para operações lógicas nunca precisam sair da memória”, segundo os pesquisadores. A equipe conseguiu isso integrando um reconfigurável spintrônico computar o substrato diretamente na célula de memória, um avanço que os pesquisadores descobriram que poderia reduzir o consumo de energia de uma operação de IA em uma “ordem de 1.000x em relação a uma solução de última geração”.

E essa melhoria de 1.000x pode ser apenas a linha de base. A equipe de pesquisa testou o CRAM em um Tarefa de classificação de dígitos manuscritos MNIST e descobriu que period “2.500× e 1.700× menos em energia e tempo, respectivamente, em comparação com um sistema de processamento de memória próxima no nó de tecnologia de 16 nm”.

A indústria emergente de IA já está enfrentando problemas significativos de recursos. As GPUs cada vez mais rápidas, cada vez mais poderosas e capazes que sustentam o software program de IA são imensamente famintas por energia. O mais novo topo de linha da NVIDIA Blackwell B200 consome até 1.200 Wpor exemplo, e gera tanto calor residual que requer resfriamento líquido, outra operação que consome muitos recursos.

Com hiperescaladores como Google, Amazon e Microsoft, todos lutando para construir a infraestrutura física necessária para impulsionar a revolução da IA ​​que se aproxima — ou seja, data centers de tamanho gigawattalguns com suas próprias usinas nucleares anexas — criar recursos de computação e memória mais eficientes em termos de energia se tornará cada vez mais crítico para a viabilidade a longo prazo da tecnologia de IA.

Crédito: Link de origem

- Advertisement -

Comentários estão fechados.