Uso da inteligência artificial nas eleições: solução ou problema?

Uso da inteligência artificial nas eleições: solução ou problema? 1024 683 Instituto Palavra Aberta

* Patricia Blanco é presidente do Instituto Palavra Aberta

 

Se as eleições brasileiras de 2022 representaram um divisor de águas na disseminação de desinformação e, por consequência, no combate a ela, o pleito deste ano traz um novo e ainda mais imprevisível desafio: o uso de ferramentas de inteligência artificial (IA). 

A discussão em torno desta tecnologia e do seu impacto tem sido ampla em todos os setores da sociedade, mas se torna ainda mais importante em tempos de eleições. Foi com esse intuito que o Tribunal Superior Eleitoral (TSE), liderado pela ministra Cármen Lúcia, relatora das regras para publicidade eleitoral deste ano, realizou na segunda quinzena de janeiro um Ciclo de Audiências que contou com quase mil sugestões. 

No terceiro e último dia do Ciclo, um dos temas que mais gerou interesse foi justamente o que trata das regras voltadas para o uso da inteligência artificial nas eleições. 

Permitir ou proibir, identificar ou não, regular ou deixar livre? Todas estas questões foram trazidas pelos participantes dos mais diversos setores, incluindo especialistas em tecnologia, representantes da sociedade civil, partidos políticos e publicitários responsáveis pelas campanhas eleitorais. 

A preocupação com a utilização de deepfakes — mídias sintéticas criadas por meio da manipulação de imagens e sons — e de outros tipos de mensagens fraudulentas que visam confundir o eleitorado é real e fortemente justificável, uma vez que já começam a surgir exemplos de utilização indevida desta ferramenta. 

Um dos casos mais recentes envolve o pré-candidato a prefeito de Maringá, no interior do Paraná, que foi vítima de um conteúdo falso que utilizava uma voz semelhante à sua, mas declarando apoio a um adversário e indicando a sua desistência em concorrer. 

Plataformas de vídeos e redes sociais já proíbem a veiculação de conteúdos tecnicamente manipulados que visam enganar os usuários, inclusive em anúncios. Mas a questão é como garantir que esta prática não seja utilizada para a circulação de vídeos fora dos canais com regras preestabelecidas. Como checar um vídeo verossímil que chega via serviço de mensagem instantânea, enviado por pessoas próximas, sem origem e fonte identificada? 

É neste cenário que uma das possíveis soluções seja justamente o uso de ferramentas de inteligência artificial para detectar conteúdos manipulados. Como bem colocou o representante do Instituto Brasileiro para a Regulamentação da Inteligência Artificial, Marcelo Senise, “o TSE tem de investir em tecnologias de detecção de deepfakes e algoritmos de IA que identifiquem padrões suspeitos de disseminação de desinformação”. 

Outro caminho, tão importante quanto a regulação para o uso dessas tecnologias, é investir na conscientização pública e na educação dos cidadãos para que aprendamos a suspeitar desses conteúdos e a identificar sua origem, fonte, contexto e propósito. Ter senso crítico é fundamental ao passo que as imagens se tornam cada vez mais difíceis de terem a sua veracidade checada.

O desenvolvimento destas habilidades são a razão de ser da educação midiática, que deve, em momentos cruciais como as eleições, ser oferecida em conjunto com conteúdos de educação para a democracia. É com esse objetivo que o Instituto Palavra Aberta lança a nova versão do programa #FakeTôFora: Quem Vota se Informa, com conteúdos voltados para alunos do Ensino Médio e que oferece uma trilha de aprendizagem adaptável a diferentes disciplinas e etapas de ensino. 

A sustentabilidade da nossa democracia depende também de investirmos em quem irá fortalecê-la e defendê-la. A inteligência artificial nos impõe um desafio que deve se complexificar cada vez mais a curto e médio prazos. Sem educarmos para a informação, valorizando a ética e a responsabilidade, esse caminho pode ser ainda mais tortuoso.

Foto: Alejandro Zambrana/Secom/TSE

    Utilizamos cookies e outras tecnologias semelhantes para melhorar a sua experiência em nossa plataforma. Ao continuar navegando, você concorda com as condições previstas na nossa Política de Privacidade.