A Nvidia revelou a primeira variante PCI-Express da GPU Ampere A100 que foi lançada no mês passado, mas os jogadores não devem se animar: foi projetada para acelerar o desenvolvimento nas áreas de IA, ciência de dados e supercomputação.

A Nvidia finalmente exibiu sua nova arquitetura de 7 nm Ampere no mês passado na forma da GPU A100. Agora, a empresa anunciou vários sistemas com tecnologia A100 dos principais fabricantes de servidores, incluindo Asus, Dell, Cisco, Lenovo e muito mais.

A Nvidia também revelou uma variante PCI-Express do A100. Possui os mesmos núcleos 6912 CUDA, 54 bilhões de transistores, seis pilhas de memória HBM2 e 40 GB de memória que a versão SXM4, mas a nova conectividade permite fácil instalação nos sistemas existentes.

Nvidia Ampere

Conforme observado pelo ComputerBase (e também pelo Tom’s Hardware), existem algumas desvantagens em mudar para o PCIe 4.0. O TDP nessa variante cai de 400W para 250W, o que significa uma penalidade de desempenho de 10 a 50% com base na carga de trabalho, com a GPU mais adequada para rajadas curtas, em vez de cargas sustentadas.

Espera-se que haja 30 sistemas de servidores A100 disponíveis tão breve e mais de 20 até o final do ano.

DGX A100

“A adoção das GPUs NVIDIA A100 nas ofertas dos principais fabricantes de servidores está superando tudo o que vimos anteriormente”, disse Ian Buck, vice-presidente e GM de Accelerated Computing da Nvidia. “A grande variedade de servidores NVIDIA A100 provenientes de nossos parceiros garante que os clientes possam escolher as melhores opções para acelerar seus data centers para alta utilização e baixo custo total de propriedade”.

Graças às melhorias do Ampere, o A100 pode aumentar o desempenho em até 20x em relação ao seu antecessor baseado no Volta. Possui tecnologia GPU de várias instâncias, permitindo que um único A100 seja particionado em até sete GPUs separadas para lidar com diferentes tarefas de computação. Há também o NVLink de terceira geração, que permite a junção de várias GPUs em uma GPU gigante, e novos recursos de escassez estrutural que podem ser usados ​​para dobrar o desempenho de uma GPU.

Em um comunicado à parte, a Nvidia disse que acabou de quebrar o recorde do benchmark de big data analytics, conhecido como TPCx-BB. Usando dezesseis de seus sistemas DGX A100, que totalizam 128 GPUs A100, a empresa executou o benchmark em 14,5 minutos. O registro anterior foi de 4,7 horas.

Deixe uma resposta

Exit mobile version