20 de fevereiro de 2026

Olímpio Cruz: Eleições gerais de 2026 sob o império da IA (III)

Imagem gerada por ChatGPT

A fraude não precisa ser perfeita

O primeiro engano da era da inteligência artificial não é a imagem falsa. É a sensação de que o problema está domado quando aparece um aviso discreto na tela: “feito com IA”.

O rótulo oferece conforto moral, como se nomear o risco fosse neutralizá-lo. Mas 2026 não será uma eleição discutida em torno de etiquetas. Será discutida em torno de prova. De origem. De cadeia de custódia. E do que acontece quando a política tenta trocar o mundo por uma simulação — e a simulação chega com luz boa, legenda certeira e cara de conversa.

Por Olímpio Cruz Neto*

Na propaganda tradicional, você reconhece a peça e reconhece a rua. Na guerra de percepção em escala, a rua vira peça. A conversa vira peça. A indignação vira peça. E a peça chega como se fosse um fragmento inocente do cotidiano.

A etiqueta é só o começo

O Tribunal Superior Eleitoral já vem tentando reagir ao tema e, nas regras para 2024, proibiu “deepfakes” na propaganda eleitoral e determinou aviso obrigatório de uso de IA em conteúdos divulgados. É um passo correto — e insuficiente.

Porque a fraude mais eficiente não é a mentira perfeita. É o efeito perfeito: a sensação de autenticidade. A IA não precisa inventar tudo. Muitas vezes, ela só precisa torcer o real, cortar o contexto, encaixar numa narrativa e distribuir com velocidade.

E quando a distribuição é industrial, a checagem corre atrás. Mesmo quando a checagem chega, chega tarde: o conteúdo já circulou, já provocou reação, já colou uma etiqueta emocional. O objetivo não é que você acredite para sempre. É que você duvide no tempo certo.

A pergunta que define o conflito não é “isso tem rótulo?”. É: isso tem origem verificável?

Cadeia de custódia

Cadeia de custódia parece expressão de tribunal e laboratório. Mas, em 2026, essa expressão é linguagem de sobrevivência democrática.

Quando surge um “áudio vazado”, a pergunta não pode ser “parece a voz”. Tem de ser: qual é o arquivo original, de onde veio, qual é o contexto, quem responde por ele, qual é a integridade do material?

Quando aparece um vídeo “probatório”, a pergunta não pode ser “viralizou”. Tem de ser: qual foi a primeira postagem, qual foi o recorte, qual foi a edição, qual é a fonte primária?

Quando uma imagem dispara no WhatsApp, a pergunta não pode ser “é chocante”. Tem de ser: é rastreável?

É nesse ponto que o árbitro entra. E é por isso que, em fevereiro de 2026, o ministro Gilmar Mendes defendeu uma força-tarefa com peritos e instituições acadêmicas para identificação rápida de conteúdos produzidos por IA, especialmente deepfakes. A sinalização é clara: o árbitro sabe que não dá para apitar no escuro.

Mas força-tarefa, sozinha, não resolve se não houver método público e previsível. O país precisa de uma regra que funcione quando a crise explode numa manhã qualquer, antes do café terminar de coar.

O novo árbitro em campo

O TSE não foi desenhado para ser uma perícia digital permanente em tempo real. Foi desenhado para organizar o pleito, garantir regras mínimas e julgar abusos. Só que 2026 empurra o tribunal para uma função adicional: gerir crises do ecossistema informacional em período eleitoral.

Isso cria um dilema cruel. Se decide rápido, é acusado de arbitrariedade. Se demora, é acusado de omissão. E a IA piora o jogo porque multiplica casos, versões, recortes, “provas” e falsos vazamentos — todos concorrendo pelo mesmo recurso escasso: atenção.

A saída não é “dar mais poder” ao árbitro. É dar mais rito, mais prova e mais rastro ao árbitro — e tornar o procedimento previsível.

O que deveria estar na linha de frente em 2026:

1. Padrão mínimo de prova para remoção urgente (com trilha pública)

Conteúdo removido precisa deixar rastro: qual item, qual motivo, qual evidência técnica mínima, qual pedido.

2. Devido processo no ritmo da rede

Não é aceitável julgar “no tempo do papel” um dano “no tempo do feed”. Contestação e perícia precisam de rito acelerado e transparente.

3. Transparência ativa de campanhas e plataformas

Biblioteca de anúncios, impulsionamento político, rotulagem padronizada e auditoria de comportamento inautêntico coordenado.

Em 2026, rotular IA não basta. A democracia vai exigir uma frase que até ontem parecia burocrática: mostre a origem. E quando a política tentar substituir o mundo por uma simulação, a pergunta mais antipática — e mais democrática — precisa voltar a ser a mais comum: prove.

As eleições de 2026 serão um teste brutal de resiliência democrática — não por causa de uma “nova tecnologia”, mas por causa de uma velha ambição com motor novo. A IA não inventa a manipulação: ela a torna barata, rápida e escalável. O risco não é a máquina. É o uso político da máquina para fabricar clima, dúvida e saturação.

Links e referências

• TSE (proibição de deepfakes e aviso obrigatório de uso de IA): https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes

• Força-tarefa para identificar deepfakeshttps://agenciabrasil.ebc.com.br/justica/noticia/2026-02/ministro-propoe-forca-tarefa-para-identificar-deep-fake-nas-eleicoes

• Caso Banco Master:

a) CNN Brasil: https://www.cnnbrasil.com.br/blogs/jussara-soares/politica/caso-master-influenciadores-dizem-que-receberam-propostas-para-criticar-bc/

b) Agência Brasil: https://agenciabrasil.ebc.com.br/justica/noticia/2026-01/caso-master-pf-vai-apurar-suposta-campanha-contra-o-bc-nas-redes

c) NetLab/UFRJ: https://netlab.eco.ufrj.br/post/caso-master-pf-investiga-quem-pagou-por-ataque-de-influenciadores-ao-banco-central

Olímpio Cruz Neto* é jornalista e analista de risco institucional e geopolítica. Foi consultor do NDB (Novo Banco de Desenvolvimento) em Xangai, diretor da GAC Brasil e secretário de Imprensa da Presidência da República. Com 40 anos de experiência, atuou na Folha, O Globo e JB. Especialista em interface governo-mercado e gestão de stakeholders em ambientes de alta exposição estratégica.