Uma nova pesquisa detalha um processo que permite que CPU, GPU e acelerador de IA trabalhem perfeitamente em paralelo em tarefas multithreading. A descoberta pioneira pode fornecer computação ultrarrápida e com baixo consumo de energia, prometendo dobrar a velocidade geral de processamento com menos da metade do custo energético.

Pesquisadores da Universidade da Califórnia em Riverside desenvolveram uma técnica chamada Simultaneous and Heterogeneous Multithreading (SHMT), que se baseia no multithreading simultâneo contemporâneo. O multithreading simultâneo divide um núcleo da CPU em várias threads, mas o SHMT vai além, incorporando processadores gráficos e de IA.

O principal benefício do SHMT é que esses componentes podem simultaneamente processar cargas de trabalho totalmente diferentes, otimizadas para a força de cada um. O método difere da computação tradicional, onde a CPU, GPU e acelerador de IA funcionam de forma independente. Essa separação requer a transferência de dados entre os componentes, o que pode levar a gargalos.

Enquanto isso, o SHMT usa o que os pesquisadores chamam de “agendador inteligente de roubo de trabalho com reconhecimento de qualidade (QAWS)” para gerenciar a carga de trabalho heterogênea dinamicamente entre os componentes. Esta parte do processo visa equilibrar desempenho e precisão, atribuindo tarefas que requerem alta precisão à CPU, em vez do acelerador de IA mais propenso a erros, entre outras coisas. Além disso, o agendador pode reatribuir tarefas perfeitamente aos outros processadores em tempo real se um componente ficar para trás.

Em testes, o SHMT aumentou o desempenho em 95% e reduziu o consumo de energia em 51% em comparação com as técnicas existentes. O resultado é um impressionante aumento de eficiência de 4x. Os primeiros testes de prova de conceito utilizaram a placa Jetson Nano da Nvidia, contendo uma CPU Arm quad-core de 64 bits, GPU Maxwell de 128 núcleos, 4 GB de RAM e um slot M.2 abrigando um dos aceleradores de IA Edge TPU do Google. Embora não seja exatamente um hardware de ponta, ele reflete configurações padrão. Infelizmente, existem algumas limitações fundamentais.

“A limitação do SHMT não é o modelo em si, mas sim se o programador pode revisitar o algoritmo para exibir o tipo de paralelismo que torna o SHMT fácil de explorar”, explica o artigo.

Em outras palavras, não é uma implementação de hardware universal simples que qualquer desenvolvedor possa usar. Os programadores precisam aprender como fazer isso ou desenvolver ferramentas para fazer isso por eles.

Se o passado serve de indicação, isso não é tarefa fácil. Lembra da mudança da Apple do silício Intel para o baseado em Arm nos Macs? A empresa teve que investir significativamente em sua cadeia de ferramentas de desenvolvedor para facilitar a adaptação dos aplicativos dos desenvolvedores à nova arquitetura. A menos que haja um esforço conjunto de grandes empresas de tecnologia e desenvolvedores, o SHMT pode acabar se tornando um sonho distante.

Os benefícios também dependem muito do tamanho do problema. Enquanto o pico de aumento de 95% exigia tamanhos máximos de problemas nos testes, cargas menores viram retornos decrescentes. Cargas minúsculas quase não ofereceram ganhos, pois havia menos oportunidades para espalhar tarefas paralelas. No entanto, se essa tecnologia puder ser dimensionada e se popularizar, as implicações podem ser enormes – desde reduzir custos e emissões de data centers até frear o uso de água doce para refrigeração.

Leia também: Arrow Lake-S da Intel pode abandonar o Hyper-Threading

Muitas perguntas permanecem sem resposta sobre implementações no mundo real, suporte de hardware, otimizações de código e aplicativos de caso de uso ideais. No entanto, a pesquisa parece promissora, dada a explosão de aplicativos de IA generativa nos últimos anos e a imensa quantidade de poder de processamento necessária para executá-los.

Deixe uma resposta

Exit mobile version