Contra IA, TSE inverte prova
A punição de crimes eleitorais esbarra no calendário: é quase impossível impedir os danos provocados por ações ilegais em uma campanha, principalmente quando mentiras e acusações são divulgadas poucas horas antes da ida às urnas.
Ao possibilitar a inversão do ônus da prova em caso de suspeita de uso de inteligência artificial na geração de falsos conteúdos, o Tribunal Superior Eleitoral deu um passo importante para tentar quebrar uma arma de características letais: chega ser quase impossível detectar se imagens feitas com IA são verdadeiras ou falsas.
Revelada pela Folha de S.Paulo, a medida adotada pelo TSE tenta romper o impasse e diminuir danos nesta primeira eleição presidencial a ser disputada depois de tamanho aperfeiçoamento de programas capazes de produzir imagens e sons falsos com um grau absurdo de perfeição.
A punição de crimes eleitorais esbarra no calendário: é quase impossível impedir os danos provocados por ações ilegais em uma campanha, principalmente quando mentiras e acusações são divulgadas poucas horas antes da ida às urnas.
Os criminosos sabem que os acusados dificilmente terão tempo hábil para reagir, para provar a falsidade do que foi forjado sobre eles - foi o que Pablo Marçal fez ao, na noite de sexta-feira, 4 de outubro de 2024, a pouco mais de 24 horas do início da eleição, ao divulgar um laudo falso sobre uma inexistente internação do adversário Guilherme Boulos (Psol) por abuso de drogas.
Dias depois, logo depois de votar, o governador de São Paulo, Tarcísio de Freitas (Republicanos), usou manuscrito atribuído ao PCC para acusar o mesmo Boulos de ser apoiado pela facção criminosa. No processo aberto na Justiça Eleitoral, a defesa de Tarcísio chegou mudar a frase que ele pronunciou na ocasião.
De um modo geral, os autores desse tipo de ato contam com a complacência da Justiça Eleitoral, que costuma ser ágil durante a campanha e lenta depois. A demora no julgamento costuma ser cúmplice dos réus, principalmente quando estes são eleitos.
Não é incomum magistrados aceitarem a tese de que a trapaça não foi decisiva do pleito, como se fosse possível medir a repercussão de uma mentira. A gravidade das penas previstas na legislação eleitoral também representa um impasse - é justo, mas não tão simples, decretar a nulidade da escolha de um determinado candidato. É como se houvesse um impasse: absolvição ou pena de morte.
A possibilidade de obrigar o suposto infrator a provar que não criou inverdades com o uso de IA serve ao menos para diminuir uma vantagem que criminosos têm sobre o aparato repressivo e punitivo. Eles, os bandidos, agem antes; a polícia chega depois. É impossível impedir o crime, mas a criação de instrumentos que permitam apurá-lo servem para, em tese, desestimular delitos.
Outra medida importante foi a decisão de impedir que chatbots de inteligência artificial como Gemini, ChatGPT e Grok privilegiem determinadas candidaturas, a exemplo do que já aconteceu por aqui. Esses criadores de conteúdo não poderão mais escolher se fornecerão informações sobre determinados políticos.
A luta contra desinformação disseminada pelas redes sociais e, de uns anos para cá, produzida por IA tende a ser inglória e vítima de um discurso que, em nome da liberdade de expressão, defende o direito à disseminação impune da mentira, algo que encataria Hitler e outros ditadores.
Essa resistência, vinda principalmente da extrema direita, dificulta a criação de mecanismos que impeçam redes como Facebook e Instagram de direcionarem conteúdos para seus usuários. Prática que, esta sim, representa uma censura ao escolher que mensagens serão mais ou menos disseminadas. Este tipo de manipulação favorece a radicalização a intolerância ao entregar a cada usuário apenas conteúdos com os quais ele já concorda. A briga não vai ser fácil - criminosos, vale repetir - andam na frente; mas é importante tentar.
