Existe uma fórmula para conteúdo de qualidade? O escritor em mim quer zombar da pergunta, mas outra parte está pronta para admitir que pode haver algo como uma frase matematicamente imaculada. Software conduzido por inteligência artificial (IA) já está sendo usado para criar peças simples de conteúdo (cópia do site, descrições de produtos, postagens em mídias sociais etc.) por algumas empresas, evitando que elas tenham o trabalho de escrevê-lo. Mas até onde esse conceito se estende?

É fácil entender como uma máquina pode ser ensinada a seguir as regras estritas da gramática e construir fragmentos de texto com base nas informações fornecidas. A ideia de que a IA pode ser capaz de extrair a palavra mais eficaz para uma situação específica, com base na compreensão do público, também está dentro dos limites de nossa imaginação.

É mais difícil, porém, imaginar como os modelos de IA poderiam aprender as nuances de estilos e formatos de escrita mais complexos. É um romance metaficcional longo com um grande grupo de personagens e uma tendência satírica um exagero, muito humano?

A chegada da mídia sintética em primeiro lugar, no entanto, foi possível devido à disponibilidade de imensos recursos de computação e avanços no campo da IA. Nenhuma das áreas mostra qualquer sinal de platô, muito pelo contrário, de modo que a automação de conteúdo também ficará mais sofisticada.

Como funciona?

Como acontece com qualquer produto de IA, os modelos de linguagem aprendem a funcionar conforme desejado, primeiro absorvendo grandes quantidades de dados. Ao examinar uma grande quantidade de conteúdo existente, as regras gramaticais, a sintaxe e a seleção adequada de palavras são aprendidas.

Até muito recentemente, no entanto, os modelos de IA eram incapazes de atender aos altos padrões estabelecidos por escritores humanos, particularmente quando se trata de conteúdo de formato longo. Erros e excentricidades sempre traíram o autor não humano.

“Um dos problemas históricos com o processamento de passagens muito longas de texto é que os modelos de linguagem lutam para lembrar como as diferentes partes do texto se relacionam, em parte devido a algo chamado de ‘problema do gradiente de desaparecimento (e explosão)’”, explicou Jon Howells, cientista-chefe de dados da empresa de serviços de tecnologia Capgemini.

“No entanto, os pesquisadores de IA vêm construindo modelos de linguagem maiores com técnicas melhores, usando grandes quantidades de dados e muito mais poder computacional.”

O líder neste campo é uma empresa chamada OpenAI, que é a criadora e guardiã de uma tecnologia conhecida como GPT (abreviação de Generative Pre-Training Transformer), agora em sua terceira geração.

Em 2018, a empresa revelou a primeira iteração do GPT, que era capaz de realizar tarefas de processamento de linguagem natural (PNL), como responder a perguntas e analisar sentimentos, graças a um novo método de treinamento exclusivo.

O OpenAI emparelhou o pré-treinamento não supervisionado, por meio do qual grandes conjuntos de dados não rotulados são alimentados no modelo, com o aprendizado supervisionado, que é um processo de ajuste fino que usa conjuntos de dados menores voltados para a resolução de tarefas específicas.

GPT-3 , a versão mais recente e poderosa, expande significativamente essa premissa. Construído sobre um recorde de 175 bilhões de parâmetros (o número de valores que o modelo tenta otimizar), o GPT-3 é capaz de gerar texto convincente semelhante ao humano sob demanda, usando apenas um punhado de prompts.

Desde que foi lançado em beta privado no ano passado, os desenvolvedores usaram o modelo para gerar scripts, músicas, comunicados à imprensa, ensaios e muito mais. Com apenas alguns ajustes, um testador descobriu que o GPT-3 poderia ser ensinado a gerar código HTML.

Impressionada com o desempenho do modelo de linguagem, a Microsoft desde então garantiu um acordo de licenciamento exclusivo com a OpenAI, que verá a empresa integrar GPT-3 em seus próprios produtos e serviços.

 Para lhe dar uma ideia do que ele é capaz, aqui está o que o GPT-3 produziu quando recebeu o seguinte prompt: “Aqui está um pequeno poema do Dr. Seuss sobre, elon musk, o preço das ações de tesla e a SEC.”

“Elon Musk tuitou um gráfico,
Um tuíte tão brilhante que
é especialista em vendas a descoberto.
Seus medos se acendem,
Fazendo os números girarem
Que poucas horas antes
não eram

Ótimo Scott!
O que foi esse tweet?
E de onde veio esse gráfico?

Bem, as ações da Tesla subiram
mil pontos,
enquanto os shorts corriam para cobrir,
e eles perderam suas camisas! ”

(Continua o poema)

Embora a OpenAI não tenha oferecido nenhuma indicação de quando o GPT-4 poderá chegar, a segunda e a terceira gerações chegaram a um ano de seus antecessores, sugerindo que talvez não tenhamos de esperar tanto.

Em termos de escala, o GPT-3 era aproximadamente duas ordens de magnitude maior do que o GPT-2. Se o mesmo aumento for viável novamente, o GPT-4 poderia ser construído em incríveis 17,5 trilhões de parâmetros. Com maior escala, virá desempenho ainda maior.

Como está sendo usado?

A OpenAI disponibilizou sua tecnologia comercialmente por meio de uma API, e outros produtos rivais (por exemplo, o BERT do Google) são de código aberto, o que significa que empresas e empreendedores podem usar os modelos como base para seus próprios serviços de conteúdo de IA.

Jasmine Wang, pesquisadora que trabalhou na OpenAI, é uma dessas empreendedoras. Seu último empreendimento, Copysmith, oferece aos clientes as ferramentas para gerar marketing e texto publicitário usando apenas quatro informações: nome e descrição da empresa, público-alvo e palavras-chave.

Mas este é apenas um exemplo de como a tecnologia pode ser implantada em um contexto da vida real. Em última análise, Wang nos disse, não há limite para os modelos de linguagem como o GPT-3 e a linha entre o que é composto por humanos e a IA se tornará cada vez menos bem definida.

“Chegamos a um estado de criação de conteúdo onde a IA pode escrever tão bem ou tão convincentemente quanto os humanos. A verdadeira inovação com o GPT-3 é que você não precisa ensiná-lo nada, apenas fornece exemplos ”, disse ela.

“Com o Copysmith, o GPT-3 gera, digamos, doze anúncios Google diferentes. Em seguida, o cliente olha para esses anúncios, talvez faça algumas edições e, por fim, faça o download de uma cópia. ”

Wang também descreveu o processo de escrever um romance no qual está trabalhando, uma parte significativa do qual foi composta pelo GPT-3. “Não diretamente, não pelo texto gerado pela modelo, mas pelas ideias que ela gerou”, explica. “A linha entre o que é e o que não é composto por máquinas tornou-se mais difusa.”

Iain Thomas, que é diretor de criação da Copysmith e também poeta, acredita que os criadores acabarão por sacudir o sentimento de ansiedade e culpa associado a trazer a IA para o processo artístico.

“A inteligência artificial pode atuar como um agente de composição para a criatividade humana, permitindo que você acesse sua criatividade de diferentes maneiras. É como ter um segundo cérebro que complementa o seu, que não se cansa ou se distrai, que pode pensar lateralmente de maneiras que você nunca teria pensado. Mesmo assim, ainda sinto que o trabalho é meu ”, explicou.

“E quando a GPT-4 chegar, muitas das coisas que consideramos exclusivamente humanas serão questionadas, como a intimidade da comunicação humana, a compreensão única do contexto de uma conversa, a capacidade de criar arte profunda e muito mais . ”

Embora a safra atual de modelos de IA só possa realmente ser usada de uma forma unidimensional, para gerar peças únicas de conteúdo, também é possível que futuras iterações possam interagir efetivamente entre as disciplinas.

Imagine um mundo no qual a escrita de roteiros de IA é combinada com a produção de filmes habilitada para IA, por exemplo. Tanto no nível de escrita quanto de produção, cada filme pode ser ajustado para corresponder à preferência de um indivíduo, semelhante à forma como os filtros são aplicados às fotos hoje. O mesmo filme pode ser apresentado ao espectador no estilo Tarantino ou Scorsese, dependendo do gosto.

De acordo com Iskender Dirik, GM e MD da incubadora de startups Samsung Next, a influência do redator no processo de criação de conteúdo diminuirá em alguns aspectos e permanecerá significativa em outros; suas responsabilidades irão essencialmente mudar para o lado:

“Os escritores ainda desempenharão o papel principal na criação de conteúdo, pois ainda há um longo caminho a percorrer antes que as tecnologias de IA correspondam às habilidades de pensamento cognitivo e criativo dos humanos. No futuro, veremos os escritores se concentrarem cada vez mais na direção criativa e no desenvolvimento de narrativas atraentes, ao mesmo tempo em que alavancam ferramentas de tecnologia que ajudam na execução ”.

O que é qualidade, afinal?

À medida que a influência da IA ​​se expande, porém, a forma como a qualidade do conteúdo é avaliada também mudará para sempre. A qualidade não será mais uma questão subjetiva, sujeita a debate, mas sim avaliada com base em métricas rígidas, como tempo na página e taxa de acabamento.

Esse processo já está ocorrendo na mídia digital, onde o conteúdo petiscável com maior probabilidade de gerar impressões tem precedência sobre os relatórios detalhados, e onde os títulos hiperbólicos superam os puramente descritivos.

“Os editores de conteúdo contarão cada vez mais com tecnologias para analisar o envolvimento do usuário, em vez de definir critérios para a qualidade do conteúdo em si”, prevê Dirik. “O envolvimento do leitor acabará por se tornar um proxy de qualidade.”

Uma plataforma de publicação chamada Inkitt já adotou essa noção. Os autores são solicitados a fazer upload de seus manuscritos, que os usuários da plataforma podem ler gratuitamente. Os escritores com os manuscritos de melhor desempenho, com base nas métricas de engajamento, são então assinados para contratos oficiais e seus livros publicados de uma maneira mais tradicional.

“Acreditamos em uma abordagem sistemática e baseada em dados para descobrir talentos ocultos. É por isso que usamos dados reais de nossos três milhões de leitores para rastrear e analisar anonimamente o comportamento e os padrões de leitura ”, disse o fundador Ali Albazaz por e-mail.

“Isso inclui métricas como frequência de leitura, taxa de acabamento e velocidade de leitura. Se alguém ficar acordado a noite toda lendo sua história, isso é um bom sinal. ”

Embora essa abordagem possa ser lucrativa para os editores e talvez dê uma chance maior de autores a serem descobertos, são as formas de arte minoritárias e o conteúdo não populista que têm maior probabilidade de sofrer.

Espremida por um material que captura um maior número de olhos, por um período maior de tempo, a arte ousada o suficiente para romper com as convenções pode desaparecer lentamente, deixando para trás uma propagação amorfa de conteúdo insípido e identikit.

O TechRadar Pro colocou essas preocupações para Inkitt, mas a empresa respondeu apenas indiretamente, afirmando que pretende “mudar para mais microgêneros ao longo do tempo”.

Informação de armamento

A ideia de um computador ser capaz de replicar as formas de arte humana talvez seja desconfortável, mas não é a ameaça mais grave, nem tem o potencial de distorcer a indústria editorial.

As ameaças mais sérias representadas pelas ferramentas de conteúdo de IA podem ser divididas em dois campos: problemas que se originam com os dados alimentados no sistema (a matéria-prima) e problemas que podem surgir como resultado de abuso intencional (o produto final).

O primeiro centra-se no viés de IA , que pode ser descrito como qualquer instância em que uma decisão discriminatória é alcançada por um modelo de IA que aspira à imparcialidade.

No contexto da geração de conteúdo, existe o potencial para os modelos de linguagem herdarem vários preconceitos e estereótipos sociais encontrados nos conjuntos de dados usados ​​para treiná-los. E o problema é mais complexo do que parece.

“Os dados podem ser tendenciosos de várias maneiras: o processo de coleta de dados pode resultar em dados mal amostrados, os rótulos aplicados aos dados por rotuladores humanos podem ser tendenciosos ou tendências estruturais inerentes podem estar presentes nos dados”, disse Richard Tomsett, Pesquisador de IA da IBM Research Europe.

“Como existem diferentes tipos de preconceitos e é impossível minimizar todos os tipos simultaneamente, isso sempre será uma compensação.”

Mesmo o GPT-3, com todas as suas realizações, demonstrou tendências anti-seméticas e racistas extremas quando solicitado a redigir tweets usando instruções de uma única palavra, como “judeus” e “preto”.

Conforme observado por Wang, também há um problema inerente com a representação nos conjuntos de dados usados ​​para treinar modelos de IA.

“Apenas os idiomas que estão na Internet são representados na maioria dos conjuntos de dados, porque é daí que os conjuntos de dados geralmente vêm; eles são retirados da web ”, explicou ela.

“Portanto, quanto mais presença seu idioma tiver na internet, melhor representação você terá no banco de dados e melhores modelos de compreensão terão do seu idioma.”

Com exceção de curar novos conjuntos de dados gigantescos do zero (não se esqueça, eles são realmente enormes), é difícil conceber uma solução para esses problemas. Mesmo que os dados tenham sido escolhidos a dedo para inclusão, a questão simplesmente muda de forma: nenhum indivíduo é qualificado para determinar o que constitui preconceito ou diversidade.

A preocupação mais imediata, entretanto, é a oportunidade de usar modelos de linguagem como meio de disseminar desinformação e semear divisão.

Notícias falsas e deepfakes compostas por IA já estão tendo um impacto profundo na economia da informação, mas o problema tende a piorar. Vários dos especialistas que consultamos imaginam um cenário em que os bots de mídia social, movidos por modelos de linguagem avançados, produzirão um grande volume de postagens convincentes em apoio a uma agenda política ou outra.

“O maior perigo inerente ao uso de mídia sintética é seu potencial para enganar e, no engano como arma, atingir grupos vulneráveis ​​e indivíduos com esquemas para influenciar, extorquir ou danificá-los publicamente”, escreve Nick Nigam, também da Samsung Next.

“Depois que uma farsa é vista ou ouvida, mesmo com correções e retrações subsequentes, torna-se difícil mitigar sua influência ou apagar o dano, dados os muitos canais de informação polarizados que temos no mundo hoje.”

A capacidade de plantar a semente inicial é o que conta. Depois disso, o ator malicioso pode contar com o efeito Streisand para apresentar a inverdade na consciência pública.

Essa ameaça pode ser relativamente nova (dizem que os deepfakes surgiram em 2017), mas aumentou muito rapidamente. De acordo com um relatório da Sentinel, uma empresa especializada em guerra de informação, o número de deepfakes em circulação cresceu 900% ano a ano (totalizando mais de 145.000).

Distribuídos online e ricocheteando entre as paredes das câmaras de eco das mídias sociais, esses deepfakes acumularam quase seis bilhões de visualizações coletivas. A oportunidade de influenciar a opinião pública e mexer na estrutura da realidade é muito clara.

Balanceando a equação de custo-benefício

Na conjuntura atual, é difícil ver como a sociedade pode capitalizar todo o potencial da geração de conteúdo de IA sem lançar uma nova fera verdadeiramente assustadora. As possibilidades são tão cativantes quanto os perigos são assustadores.

Sem exceção, os especialistas que consultamos foram líricos sobre a qualidade dos modelos de linguagem mais recentes e as oportunidades que a próxima geração abrirá. Nenhum deles, porém, foi capaz de explicar os danos que essas mesmas ferramentas poderiam causar.

Há esforços em andamento para desenvolver sistemas em que o conteúdo digital seja marcado com uma marca indelével e inimitável, verificando suas origens, mas estas estão em sua infância e os aspectos práticos ainda não são claros.

Outros sugeriram que a natureza descentralizada e à prova de adulteração da tecnologia blockchain significa que ela pode ser usada para rastrear com segurança as origens de uma informação e construir confiança no conteúdo compartilhado por meio da mídia social. Mas, novamente, esse método não foi experimentado e nem testado.

Nos próximos anos, os reguladores também terão muito a dizer sobre as aplicações adequadas e inadequadas da IA, mas podem acabar bloqueando a inovação como resultado.

Até que um método infalível de proteção contra falsificações seja desenvolvido, todos nós devemos aprender a pensar duas vezes se nossos olhos e ouvidos nos enganam.

Exit mobile version