E o Google está reprimindo deepfakes. No início deste mês, o Google decidiu adicionar treinamento de deepfake à sua lista de projetos proibidos em seu serviço Colaboratory. A mudança foi vista pela primeira vez pelo desenvolvedor da DFL no Discord com o nome ‘chervonij’. Quando ele tentou treinar seus modelos deepfake na plataforma, ele recebeu uma mensagem de erro, dizendo “Você pode estar executando um código não permitido e isso pode restringir sua capacidade de usar o Colab no futuro. Observe as ações proibidas especificadas em nosso FAQ.”

Google reprimindo deepfakes

O Google parece ter feito a mudança sob o radar e, desde então, permaneceu quieto sobre o assunto. 

Embora a ética seja a primeira teoria potencial a vir à mente, a razão real pode ser um pouco mais pragmática.

Abusando do recurso gratuito

Deepfakes são vídeos “photoshopados” – vídeos falsos mostrando pessoas dizendo coisas que nunca disseram. Seus criadores aproveitam as tecnologias de inteligência artificial (IA) e aprendizado de máquina (ML) para criar vídeos superconvincentes, que estão ficando cada vez mais difíceis de distinguir do conteúdo legítimo. 

Para torná-los convincentes, porém, os deepfakes exigem poder computacional significativo, não muito diferente do oferecido pelo serviço Colab. Este projeto do Google permite que os usuários executem Python em seu navegador enquanto usam recursos de computação gratuitos.

Como os deepfakes geralmente são usados ​​para fazer piadas, criar notícias falsas ou espalhar pornografia de vingança falsa, é fácil pensar que a ética está por trás da decisão do Google. No entanto, também pode ser que muitas pessoas estejam usando o Colab para criar pequenos vídeos deepfake divertidos, impedindo que outros pesquisadores façam um trabalho mais “sério”. Afinal, o recurso de computação é de uso gratuito.

Além de deepfakes, o Google não permite que o Colab seja usado em projetos como mineração de criptomoedas, execução de ataques de negação de serviço, quebra de senhas, uso de várias contas para contornar restrições de acesso ou uso de recursos, uso de desktop remoto ou SSH ou conectando-se a proxies remotos.

1 comentário

  1. Putz, então é verdade…!! A uns 5 anos + ou – vi um reportagem na TV (não me lembro o canal) mostrando pessoas falando coisas que na verdade não estavam falando o que se ouvia, mas as expressões labiais gesticulavam exatamente a fala. Diante disto me pergunto: “A justiça atual está preparada para isso no caso de um julgamento onde pode até envolver pena de morte?”

Deixe uma resposta

Exit mobile version