DESTAQUEMais recentes

Crônica da semana por Nilton Morselli

O que já é ruim sempre pode piorar

Que a inteligência artificial (IA) já fez estragos pelo mundo não é novidade. No Brasil, houve alguns casos, principalmente envolvendo imagens de mulheres cujos rostos foram inseridos em corpos nus. Essa foi a face visível –e extremamente grave– de um problema que pode evoluir para pior.

Essa tecnologia, que ainda está na infância, tem causado espanto tamanha a perfeição dos resultados que apresenta e dos estragos na reputação das pessoas atingidas. Imagine quando as empresas aperfeiçoarem os seus sistemas. Onde isso vai parar?

As empresas que operam sistemas de IA poderiam adotar o bordão do apresentador de TV Abelardo Barbosa, o Chacrinha (1917-1988): eu vim para confundir e não para explicar. Aliás, chacrinha no dicionário quer dizer “agitação desordenada e barulhenta, em situação ou lugar que exige formalidade, respeito”.

Se a intimidade de colegas de sala de aula já foi alvo de maldades, o que não se fará com um adversário político? Essa preocupação chegou ao Tribunal Superior Eleitoral (TSE), que no ano que vem conduzirá o pleito municipal em mais de cinco mil municípios. Tudo indica que haverá um desafio a mais: barrar a mentira digital em detrimento da verdade.

O presidente do TSE, ministro Alexandre de Moraes, chamou a Meta para conversar sobre o assunto nesta semana. A Meta é dona de Facebook, Instagram, WhatsApp e Thread. A partir dessas plataformas acontecem campanhas eleitorais paralelas, com a mentira vencendo a verdade de goleada.

As autoridades brasileiras querem saber sobre as ferramentas de que a empresa dispõe para monitorar a IA no tráfego de suas redes. A Meta, assim como outras, terá de comprovar durante a campanha sua capacidade de evitar abusos na propaganda e na antipropaganda.

Como ela fará isso? A resposta a essa pergunta do milhão é o que o TSE deseja saber. E nós também. Não é uma tarefa fácil, uma vez que depende do comportamento ético dos usuários e da agilidade em bloquear conteúdos inadequados, para não dizer criminosos, sem ferir a liberdade de expressão.

Felizes eram os juízes eleitorais quando o rádio e a TV eram os veículos a serem fiscalizados. Eles têm cara, endereço e editores conhecidos. Já um celular –ou uma central inteira– a serviço de determinado candidato pode se tornar uma usina de ataques a partir de trincheiras indeterminadas.

Se a fake news pura e simples já foi um fator capaz de influenciar resultados, com a IA em franco desenvolvimento isso tende a tomar proporções avassaladoras. Montagens com imagens, áudios e vídeos com perfeição quase absoluta serão um prato cheio.

Até o candidato “x” provar que não é ele quem aparece na cena ou confessando um delito, o estrago já estará disseminado. O eleitor não saberá dizer se aquilo que está vendo é verídico ou não. E até quando for verdade teremos de desconfiar ou submeter a algum tipo de checagem, coisa a que os jornalistas sérios estão acostumados.

Por ironia do destino, uma seara em que as mentiras travestidas de promessas já tinham seu lugar garantido ganhou um componente extra. E esse plus tem o poder de deixar no chinelo políticos de alta quilometragem no exercício da retórica vazia e da conversa fiada.

Já existem no mundo virtual dezenas de sites de IA, muitos deles gratuitos (bastando uma inscrição rápida), para criar textos, imagens, áudios com a voz idêntica e vídeos com movimentos capazes de encaixar a dublagem exata. Estão acessíveis, portanto, a quem quiser utilizá-los.

Isso é um perigo nas mãos dos desavisados e dos mal-intencionados. Até mesmo autoridades como o presidente dos EUA, Joe Biden, e magnatas como Elon Musk resolveram meter a colher no assunto. Eles fazem parte de um grupo que pediu às empresas a paralisação momentânea do desenvolvimento dessas ferramentas.

A sociedade já está se mexendo. Muitas academias de cultura, por exemplo, não aceitam produções que utilizam essas ferramentas. Em novembro, a Câmara Brasileira do Livro desclassificou da disputa ao Prêmio Jabuti a obra “Frankenstein”, após descobrir que um robô ajudou nas ilustrações.

O setor público precisa fazer algo parecido. Alexandre de Moraes pediu ao Congresso brasileiro que crie leis para barrar e punir o abuso da IA nas campanhas, sob pena de ela impactar o resultado das eleições. A verdade é que o mundo ainda não sabe reagir à inteligência das máquinas ou até onde elas podem chegar.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *