A nova era da desinformação visual

Avanço dos deepfakes transforma a percepção das imagens nas redes sociais e levanta questionamentos sobre verdade e cultura digital
por
Carolina Nader
|
28/04/2026 - 12h

Vídeos capazes de simular discursos e expressões que nunca aconteceram deixaram de ser experimentos tecnológicos para se tornarem uma preocupação crescente no ambiente digital. Produzidos com o uso de Inteligência Artificial (IA), os chamados deepfakes ampliam desafios para a informação pública e acendem alertas sobre a disseminação da desinformação, especialmente em períodos eleitorais.

Mais do que uma inovação técnica, esses materiais circulam em um ambiente digital marcado pela velocidade do compartilhamento e pelo peso das emoções na propagação de informações. Um estudo do Instituto de Tecnologia de Massachusetts (MIT), publicado em 2018 na revista Science, mostrou que informações falsas podem se espalhar até seis vezes mais rápido do que conteúdos verdadeiros nas redes sociais, ampliando desafios para jornalistas, pesquisadores e usuários diante da desinformação online.

Em períodos eleitorais, essa dinâmica torna-se ainda mais relevante. Ao navegar pelas redes, eleitores são expostos a publicações virais que, antes mesmo de serem verificadas ou desmentidas, alcançam grande circulação e passam a influenciar percepções sobre candidatos e acontecimentos políticos. Houve casos como o da deputada Tabata Amaral, que teve suas imagens adulteradas com montagens pornográficas em 2024.

De acordo com João Henrique Martins, advogado especialista em Direito Digital e mestre em IA pela PUC-SP, o principal desafio está na diferença de ritmo entre tecnologia e instituições. “Há um problema diagnosticado de que o processo legislativo não acompanha a mesma velocidade com que a tecnologia evolui. Enquanto a desinformação circula em um ritmo exponencial, a lógica processual possui ritmo muito menor.”

Segundo o especialista, a expansão dos deepfakes também está ligada à democratização das ferramentas de inteligência artificial. O que antes exigia conhecimento técnico avançado passou a estar acessível a qualquer pessoa capaz de utilizar plataformas digitais, ampliando significativamente o potencial de criação e disseminação de materiais manipulados durante campanhas eleitorais.

Martins destaca ainda que a legislação eleitoral brasileira já prevê responsabilização para casos de desinformação. De acordo com ele, a punição pode atingir tanto quem produz quanto quem compartilha conteúdos sabidamente falsos, já que o foco da lei está no ato de divulgar informações inverídicas capazes de influenciar o eleitorado. Ainda assim, a velocidade da circulação digital impõe dificuldades práticas para a aplicação das normas existentes.

A rapidez das redes sociais também contribui para o impacto dos deepfakes ao se conectar diretamente às emoções humanas. As plataformas digitais são estruturadas para priorizar publicações que geram reação imediata nos indivíduos. Para o psicanalista João Bosco, “a racionalidade exige tempo e o ambiente digital valoriza a velocidade.”

Além disso, o especialista afirma que conteúdos extremos rompem a sensação de normalidade. Para ele, o ser humano não está apto a viver em um ambiente onde imagens podem mentir. Durante a maior parte da evolução humana, “ver” era sinônimo de acreditar, e a confiança na percepção visual foi fundamental para a sobrevivência. Agora, com a possibilidade de manipulação total das imagens, esse princípio é abalado, gerando um conflito psicológico. “Esse desalinhamento pode causar ansiedade, insegurança e até uma sensação constante de dúvida em relação à realidade”, afirma.

As consequências ultrapassam o campo individual e passam a afetar diretamente as relações sociais e a confiança coletiva, especialmente em contextos eleitorais. O relatório do World Economic Forum de 2024 apontou a desinformação impulsionada por IA como um dos principais riscos globais de curto prazo, destacando o potencial impacto sobre processos democráticos. Segundo João Bosco, quando as pessoas passam a duvidar sistematicamente do que veem, ocorre uma “erosão da confiança perceptiva”. Isso pode levar a dois extremos: acreditar em tudo pela emoção ou não acreditar em nada pelo ceticismo excessivo. No longo prazo, o impacto atinge não apenas a informação, mas a própria construção de sentidos sobre o mundo.

Diante do avanço dos deepfakes, plataformas digitais e autoridades eleitorais têm ampliado medidas de identificação, por meio da exigência de rotulagem de conteúdos gerados artificialmente, monitoramento, remoção de conteúdo irregular e multas eleitorais. Especialistas alertam, porém, que o desafio não é apenas tecnológico. A dificuldade em distinguir o que é real pode gerar cansaço informacional e afastamento do debate público - fenômeno associado ao aumento da apatia política.

Em um cenário em que imagens já não garantem automaticamente a verdade, o pensamento crítico passa a ocupar papel central na construção da confiança pública e no funcionamento da democracia.