Popularização do Deepfake traz desafios para o Brasil

A tecnologia é usada por criminosos em casos variados
por
Lucas Allabi
Guilherme Gastaldi
|
22/11/2023 - 12h

Por Lucas Allabi (texto) e Guilherme Gastaldi (audiovisual)

O termo deepfake, traduzido do inglês, é uma mistura de “deep learning” e “fake”. Ou seja, é um sistema de aprendizado constante de uma inteligência artificial que visa criar vídeos e imagens falsas com cada vez mais semelhanças à realidade. A tecnologia teve início no ano de 2017. Usuários do Reddit usaram os softwares Keras e TensorFlow para criar uma IA que mapeia rostos e os substitui por outro qualquer. O software consegue até imitar expressões faciais e movimentos labiais.

Isso facilitou o uso de qualquer um a esse tipo de tecnologia, já que ela deixou de ser manual, substituindo frame por frame o vídeo selecionado, e automatizou completamente o processo. A tecnologia, com nenhuma regulação sob ela, logo se popularizou e começou a ser utilizada para diversas finalidades. Se tornou comum vídeos pornográficos serem feitos com rostos de pessoas que nunca fizeram parte de nenhum vídeo erótico.

No começo era uma espécie de fetichização da pessoa, visando dar prazer para quem tinha desejo por alguém que nunca fez pornografia. O uso criminoso dessa tecnologia, entretanto, logo surgiu. Diversos relatos da época revelaram tentativas de suborno feitas por criminosos que ameaçavam publicar deepfakes de civis. A vítima deveria pagar ao infrator para que um vídeo pornográfico com seu rosto não fosse publicado como verdadeiro.

A quantidade de usos de deepfakes para fins criminosos cresceu com a crescente facilidade do público de acessar essa tecnologia. Com um rápido google achamos ferramentas gratuitas como o aplicativo Reface, os sites DeepSwap e DeepFakes Web e os programas FaceApp e DeepFaceLab.

deepfake
 Site que oferece gratuitamente a tecnologia do deepfake.

Com a evolução do acesso ao deepfake, também aumentaram os crimes relacionados à tecnologia. É possível forjar um vídeo para criar um álibi, um depoimento para convencer que uma pessoa defende um determinado ponto de vista ou mesmo uma situação de crime, de modo a incriminar alguém. Tudo depende da criatividade do editor e de quantos vídeos da pessoa estão disponíveis na internet.

Um exemplo é que, nos Estados Unidos, ganhou projeção um golpe que usou o rosto do influenciador mais popular do mundo, MrBeast, que tem 201 milhões de inscritos no seu canal do YouTube. O vídeo usa um clone de James Stephen Donaldson, o dono do canal MrBeast, que oferecia iPhones 15 em troca de quantias irrisórias de dinheiro no Tik Tok. O que seria uma abordagem implausível, ganha em persuasão ao se considerar que ele se tornou famoso ao distribuir prêmios a quem supera desafios em seu canal.

No ano de 2022, com as eleições presidenciais no Brasil, notou-se um crescimento no uso da ferramenta, dessa vez, com o objetivo de manipular falas e criando narrativas tendenciosas com o objetivo de favorecer um lado, ao mesmo tempo em que prejudicava o outro. Além disso, a suscetibilidade de grande parte da população brasileira de acreditar favorece o uso de ferramentas que promovem a disseminação de desinformação.

Em pesquisa divulgada em janeiro de 2022 pela Kaspersky, empresa tecnológica russa especializada na produção de softwares de segurança à Internet, em parceria com a Corpa, a maior parte dos brasileiros não sabem reconhecer quando um vídeo foi editado usando o deepfake. Segundo o estudo, 66% dos brasileiros ignoram a existência dessa técnica. O relatório revela também que a maioria dos entrevistados brasileiros (71%) não reconhece quando um vídeo foi editado digitalmente usando essa técnica. 

Na mesma linha, a professora da PUC-SP Lúcia Santaella elenca alguns motivos pelos quais identificar um deepfake pode ser difícil, especialmente para pessoas sem conhecimento tecnológico. A pesquisadora lembra que as teorias da percepção revelam que o ser humano não pode duvidar daquilo que vê, ou seja, vídeos costumam ser tomados como verdade. Em segundo lugar, as peças audiovisuais manipuladas normalmente são consumidas a partir da tela de um smartphone, o que, pelo tamanho reduzido, dificulta a identificação de detalhes que denunciem a edição. 

Ela ainda ressalta que nós estamos acostumados a ver filmes e vídeos dublados. Portanto, a atenção ao movimento labial é um hábito que nós não temos. A nossa atenção toda vai para a sequência visual do vídeo, para o que é contado, narrado ou apresentado.

No ano dessa eleição, foi produzido um vídeo de deepfake onde os âncoras do Jornal Nacional, William Bonner e Renata Vasconcellos, falavam que o candidato à presidência Lula (PT) e seu vice Geraldo Alckmin (PSB) eram “bandidos”. Visto o prestígio do programa e dos apresentadores, o vídeo passou como verdadeiro para vários espectadores, criando o perigo de manipular os votos para a eleição. Esses resultados são preocupantes e evidenciam como nossa sociedade ainda é muito vulnerável à essa nova tecnologia e como precisamos nos preparar e entender o seu funcionamento. 

Além disso, a apuração mostra como políticos e influenciadores podem ter grande sucesso utilizando a manipulação digital para favorecer campanhas de desinformação, principalmente nas redes sociais como Twitter e WhatsApp, onde esses vídeos recebem uma tração muito grande e são compartilhados em massa, tanto por pessoas que não sabem que o vídeo é mentira como pessoas tem plena consciência da falta de veracidade do conteúdo, mas compartilham da mesma maneira para favorecer pontos de vista particulares.