Dólar | Selic | IBOV
Poder · · 4 min de leitura

TSE proíbe IA e deepfakes nas 72h antes das eleições de 2026

O TSE aprovou regras que vetam conteúdo gerado por IA nos três dias antes do voto. Veja o que muda para candidatos, plataformas e eleitores.

Por Redacao esquerda.blog
TL;DR · 4 min de leitura

O TSE aprovou regras que vetam conteúdo gerado por IA nos três dias antes do voto. Veja o que muda para candidatos, plataformas e eleitores.

O Tribunal Superior Eleitoral aprovou mudança de norma que proíbe qualquer conteúdo inédito produzido ou manipulado por inteligência artificial nas 72 horas que antecedem o voto e nas 24 horas seguintes ao encerramento das eleições de outubro de 2026. A regra vale mesmo que o material traga rótulo de “gerado por IA”. Plataformas que descumprirem ficam obrigadas a remover o conteúdo imediatamente.

A medida responde a um cenário concreto. Segundo relatório do Observatório Lupa, a disseminação de conteúdo falso criado com IA triplicou desde 2024, crescimento de 308%. Em 4 de outubro, mais de 155 milhões de brasileiros vão às urnas para eleger presidente, governadores, senadores e deputados.

A raiz do problema

Desde 2018, desinformação eleitoral já fazia parte do repertório político brasileiro: disparos em massa, boatos de WhatsApp, vídeos manipulados. O que mudou com a chegada das eleições de 2026 é a escala e a velocidade. Conforme noticiado pelo scienceai.news, o avanço da IA generativa tornou qualquer pessoa capaz de fabricar vídeos, áudios e imagens hiperrealistas com ferramentas de fácil acesso.

Um caso documentado pela LatAm Journalism Review ilustra bem o risco: uma verificadora de fatos encontrou no TikTok um vídeo em que um âncora falso anunciava um vírus mais agressivo que a COVID-19, mesclado com imagens de uma transmissão real. A notícia verdadeira dizia o oposto. Mas o material já tinha circulado.

A Agência Pública aponta que ferramentas de IA já estão embutidas em buscadores, redes sociais e aplicativos de mensagem. Pesquisa do InternetLab mostra que metade dos usuários de WhatsApp no Brasil já utilizou algum recurso de IA no aplicativo, e 99,1% dos usuários de apps de mensagem no país usam o WhatsApp. A circulação de conteúdo político nesses ambientes é ampla e, por vezes, pouco transparente.

O que o TSE está fazendo

Cármen Lúcia, presidente do TSE, criou um grupo de trabalho dedicado ao tema ainda em 2025 para subsidiar as resoluções do pleito deste ano. O trabalho rendeu frutos: o tribunal aprovou alteração da Resolução 23.608/2019, estabelecendo um período de silêncio digital para materiais sintéticos.

Conforme apurado pela CNN Brasil, as novas normas diferenciam usos permitidos dos proibidos. Conteúdo sintético é tolerado desde que claramente identificado ao eleitor. Deepfakes, porém, são expressamente vedados: qualquer áudio ou vídeo que altere imagem ou voz de alguém para favorecer ou prejudicar candidaturas pode ser removido e acarretar sanções.

Nas eleições municipais de 2024, o TSE já havia dado o primeiro passo nessa direção, regulamentando o uso de IA em propagandas eleitorais e restringindo robôs no contato com eleitores. O que vem sendo construído agora, no governo Lula 3, é uma arquitetura regulatória mais densa, pensada para um ambiente em que distinguir o real do sintético ficou tecnicamente muito mais difícil.

A questão mais funda

O Observatório da Imprensa coloca o problema em perspectiva: a democracia pressupõe que alguém responda pelo que diz. Quando voz e imagem de uma pessoa podem ser fabricadas por terceiros, rompe-se o elo entre identidade, fala e responsabilidade. Numa campanha eleitoral, isso tem consequências diretas: um deepfake publicado horas antes do voto pode circular amplamente antes que qualquer desmentido alcance o eleitor.

A vedação para as 72 horas anteriores ao pleito tenta cortar esse risco, mas o Senado Verifica aponta um vetor difícil de regular: influenciadores políticos que misturam entretenimento, opinião e desinformação com grande alcance e pouca responsabilização.

O modelo regulatório do TSE é um dos mais avançados da América Latina. Mas testá-lo em uma eleição presidencial, com mais de 155 milhões de eleitores, é diferente de aplicá-lo nas municipais. O Brasil tem até outubro para saber se as regras funcionam na prática.

Perguntas frequentes

O que são deepfakes e por que são proibidos nas eleições de 2026? Deepfakes são vídeos ou áudios criados com IA para simular falas ou comportamentos que nunca ocorreram. O TSE os proíbe porque podem enganar eleitores em larga escala e são difíceis de desmentir a tempo.

Como saber se um vídeo eleitoral foi feito com inteligência artificial? A legislação obriga candidatos e partidos a identificar claramente o uso de IA. Agências de checagem como o Estadão Verifica e o Senado Verifica também oferecem orientações para detectar conteúdo sintético.

O que acontece com quem divulgar desinformação de IA nas eleições? Plataformas digitais são obrigadas a remover o conteúdo imediatamente. Candidatos e partidos que veicularem deepfakes podem enfrentar sanções eleitorais previstas nas resoluções do TSE.

Quando valem as novas regras do TSE sobre inteligência artificial? As normas já estão em vigor e se aplicam integralmente às eleições gerais de 4 de outubro de 2026, incluindo o período de silêncio digital de 72 horas antes do voto.

Fontes
  • cnnbrasil.com.br — https://www.cnnbrasil.com.br/eleicoes/uso-de-ia-e-riscos-da-desinformacao-pautam-regras-para-eleicoes-de-2026/
  • www12.senado.leg.br — https://www12.senado.leg.br/verifica/materias-especiais/2026/ia-e-desinformacao-por-que-as-eleicoes-2026-exigem-atencao-redobrada
  • observatoriodaimprensa.com.br — https://www.observatoriodaimprensa.com.br/inteligencia-artificial/regulacao-da-ia-nas-eleicoes-2026-entre-o-risco-e-a-confianca-publica/
  • latamjournalismreview.org — https://latamjournalismreview.org/pt-br/articles/desinformacao-alimentada-por-ia-aumenta-antes-das-eleicoes-no-brasil/
  • apublica.org — https://apublica.org/2026/01/inteligencia-artificial-e-desinformacao-nas-eleicoes-de-2026/
TSE inteligência artificial eleições 2026 desinformação deepfake crosslink

Artigos relacionados