A Inteligência Artificial generativa está se tornando cada vez mais avançada e acessível, o que tem resultado na disseminação de mais imagens falsas nas redes sociais, com alegações de autenticidade. Em resposta a isso, a Meta anuncia que irá combater esse problema detectando e rotulando imagens de IA postadas em suas plataformas – Facebook, Instagram e Threads – mesmo quando são criadas por serviços concorrentes.

A Meta já rotula imagens fotorrealistas criadas por sua ferramenta de IA com etiquetas “Imaginado com IA”, e deseja fazer o mesmo com conteúdo criado por outros serviços de IA generativa, escreve Nick Clegg, Presidente de Assuntos Globais da Meta.

Imagens fotorrealistas criadas com a ferramenta de IA da Meta incluem marcadores visíveis, marcas d’água invisíveis e metadados incorporados nos arquivos de imagem para ajudar as plataformas a identificá-las como geradas por IA.

Leia também: IA generativa é uma máquina espetacular de desperdício de energia

Clegg escreve que a Meta tem trabalhado com outras empresas para desenvolver padrões comuns para identificar conteúdo gerado por IA. A gigante das redes sociais está construindo ferramentas que identificam marcadores invisíveis em escala para que imagens do Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, que estão trabalhando para adicionar seus próprios metadados às imagens, possam ser identificadas e rotuladas quando postadas em uma plataforma da Meta.

“As pessoas frequentemente se deparam com conteúdo gerado por IA pela primeira vez e nossos usuários nos disseram que apreciam a transparência em torno dessa nova tecnologia. Portanto, é importante que ajudemos as pessoas a saber quando o conteúdo fotorrealista que estão vendo foi criado usando IA”, escreveu Clegg.

A Meta está construindo sua capacidade de identificar imagens geradas por IA agora e começará a aplicar rótulos em todos os idiomas em seus aplicativos nos próximos meses.

Clegg disse que identificar conteúdo de áudio e vídeo criado por IA está se mostrando mais difícil, pois o processo de adição de marcadores é complicado. No entanto, a Meta está adicionando um recurso que permitirá aos usuários divulgar quando compartilham vídeo ou áudio gerado por IA para que a empresa possa adicionar um rótulo a ele. Os usuários também devem usar essa ferramenta de divulgação ao postar conteúdo orgânico com um vídeo fotorrealista ou áudio realista que foi criado ou alterado digitalmente. A Meta “pode aplicar penalidades se eles deixarem de fazer isso”.

Clegg disse que qualquer imagem, vídeo ou áudio criado digitalmente ou alterado que “crie um risco especialmente alto de enganar materialmente o público sobre uma questão importante” receberá um rótulo mais proeminente.

A Meta também está trabalhando para desenvolver classificadores que possam ajudá-la a detectar automaticamente conteúdo gerado por IA, mesmo que esse conteúdo não tenha marcadores invisíveis. Também está analisando maneiras de tornar mais difícil alterar ou remover marcas d’água invisíveis.

Mais empresas estão buscando formas de identificar conteúdo enganoso gerado por IA conforme as eleições se aproximam. Em setembro, a Microsoft alertou sobre imagens de IA da China sendo usadas para influenciar os eleitores dos EUA.

Mais recentemente, um robocall foi enviado para os residentes de New Hampshire, que incluía uma mensagem de 39 segundos falada por algo que parecia ser o presidente Biden, dizendo-lhes para não votar. Provavelmente foi criado usando um mecanismo de texto para fala feito pela ElevenLabs, levando a FCC a votar para proibir vozes de IA em robocalls.

Deixe uma resposta

Exit mobile version