Usuários recentemente observaram um comportamento peculiar no ChatGPT, um modelo de inteligência artificial (IA) desenvolvido pela OpenAI. Embora os atuais modelos de linguagem e IA generativa estejam longe de alcançar a inteligência humana, alguns usuários notaram indícios de “preguiça” na interação com o ChatGPT, um traço inerentemente humano. Essa tendência começou a ser percebida no final de novembro.
Preguiça no ChatGPT
Um usuário no Reddit relatou que solicitou ao ChatGPT que preenchesse um arquivo CSV (valores separados por vírgula) com várias entradas, uma tarefa que um computador pode realizar facilmente – até mesmo um programador iniciante pode criar um script básico para isso. No entanto, o ChatGPT recusou o pedido, alegando ser muito difícil, e sugeriu que o usuário o fizesse usando um modelo simples que poderia fornecer.
“Devido à extensão dos dados, a extração completa de todos os produtos seria bastante demorada”, afirmou a máquina. “No entanto, posso fornecer o arquivo com esta única entrada como modelo, e você pode preencher o restante dos dados conforme necessário.”
Os desenvolvedores da OpenAI reconheceram publicamente o comportamento estranho, mas estão perplexos quanto ao motivo. A empresa assegurou aos usuários que está pesquisando o problema e trabalhará em uma solução.
Alguns usuários especularam que o ChatGPT pode estar imitando os humanos, que tendem a desacelerar durante as festas de final de ano. Essa teoria foi apelidada de “hipótese das férias de inverno”. A ideia é que o ChatGPT aprendeu, interagindo com humanos, que o final de novembro e dezembro são momentos de relaxamento. No entanto, há uma diferença entre ficar menos ativo e recusar trabalho completamente.
O pesquisador amador de IA, Rob Lynch, testou a hipótese das férias de inverno alimentando o ChatGPT com tarefas falsificadas com datas de sistema de maio e dezembro, contando então os caracteres nas respostas do bot. O bot de fato apresentou respostas “estatisticamente significativas” mais curtas em dezembro em comparação com maio, embora seus resultados não sejam conclusivos, apesar de terem sido reproduzidos de forma independente.
Leia também: Será que o ChatGPT “matou” o Metaverso?
Lynch conduziu seu teste depois que Will Depue, da OpenAI, confirmou que o modelo de IA exibiu sinais de “preguiça” ou recusa de trabalho no laboratório. Depue sugeriu que este é um incidente “estranho” que os desenvolvedores já haviam experimentado anteriormente.
“Não estou dizendo que não temos problemas com recusas excessivas (definitivamente temos) ou outras coisas estranhas (estamos trabalhando em corrigir um problema recente de preguiça), mas isso é produto do processo iterativo de servir e tentar suportar tantos casos de uso ao mesmo tempo”, twittou ele.
Embora o problema possa parecer insignificante para alguns, uma máquina se recusando a realizar tarefas não é uma direção desejada para a IA. Um LLM é uma ferramenta que deve ser obediente e fazer o que o usuário pede, desde que a tarefa esteja dentro de seus parâmetros – obviamente, não se pode pedir ao ChatGPT para cavar um buraco no quintal. Se uma ferramenta não desempenha sua função, chamamos isso de falha.