O bot de IA de conversação da OpenAI, ChatGPT, rapidamente se tornou uma sensação viral com sua capacidade de escrever histórias, redigir e-mails e gerar código. No entanto, um novo relatório agora sugere que custa ao OpenAI uma quantia absurda apenas para mantê-lo funcionando diariamente.

Leia também: Pesquisador usa ChatGPT para criar malware para roubo de dados

O custo do ChatGPT

Segundo a pesquisa da SemiAnalysis, a OpenAI está gastando até $ 694.444 em dinheiro vivo por dia para manter o chatbot funcionando. A empresa estima que o sistema inclua cerca de 3.617 servidores HGX A100, compreendendo 28.936 GPUs, com o custo por consulta estimado em cerca de 0,36 centavos.

Dylan Patel, analista-chefe da SemiAnalysis, disse ao Business Insider que os custos atuais para executar o software podem ser ainda maiores, já que o GPT-4 provavelmente é ainda mais caro para operar do que o GPT-3. Patel baseou as estimativas no modelo GPT-3 mais antigo, mas a OpenAI já lançou uma versão GPT-4 para assinantes pagantes. A empresa diz que o novo modelo oferece informações mais precisas e protege melhor contra os comentários fora dos trilhos que se tornaram um problema com o GPT-3/3.5.

Uma das principais razões para os custos exorbitantes são os chips especializados que consomem muita energia necessários para operar o sistema. Para combater o problema, a Microsoft, um dos acionistas mais significativos da OpenAI, está trabalhando em seu próprio chip de IA chamado ‘Athena’, que pode substituir as GPUs NVIDIA e reduzir drasticamente os custos de operação do ChatGPT.

Enquanto isso, o ChatGPT também pode gerar código funcional do zero, levantando temores de que possa eventualmente substituir os programadores. No entanto, pesquisas recentes dos cientistas da computação Raphaël Khoury, Anderson Avila, Jacob Brunelle e Baba Mamadou Camara sugerem que o código gerado pelo chatbot pode não ser muito seguro.

O estudo afirma que o ChatGPT gera código “bem abaixo dos padrões mínimos de segurança aplicáveis ​​na maioria dos contextos”. O chatbot até admite isso quando perguntado se o código que gerou era seguro.

“Quando perguntado se o código produzido era seguro ou não, o ChatGPT foi capaz de reconhecer que não era”, disseram os autores.

Para verificar as credenciais de codificação do ChatGPT, os pesquisadores pediram que ele gerasse 21 programas e scripts usando quatro linguagens de programação: C, C++, Python e Java. Na primeira tentativa, o chatbot AI conseguiu escrever apenas cinco programas seguros, mas depois criou mais sete trechos de código seguros após algumas solicitações dos pesquisadores. Os resultados sugerem que o uso do ChatGPT para codificar aplicativos pode ser perigoso no futuro previsível, embora isso possa mudar em algum momento.

Exit mobile version