Com a rápida evolução das Inteligências Artificiais (IA), desde a primeira versão do ChatGPT em novembro de 2022, o mundo se encontra em um estado de vulnerabilidade constante. Enquanto a tecnologia coloca um poder imenso nas mãos de qualquer usuário, a sociedade enfrenta a dificuldade para lidar com as consequências dessa facilidade. A desinformação em massa, o surgimento de relações emocionais com algoritmos e a perda de escolhas cotidianas são apenas reflexo dessa falta de preparo.
Vídeos feitos por IA tem se tornado cada vez mais comuns nas redes sociais. Gatos cantando, utensílios de cozinha contando curiosidades culinárias e até mesmo dramas familiares como espécies de brigadeiros são publicados diariamente, ganhando muitas visualizações. Nestes casos, é claro perceber que aqueles vídeos não condizem com a realidade, mas com o avanço de tecnologias como Sora2, VEO3 e Kling V2.1, vídeos ultrarrealistas têm disputado cada vez mais tempo nas telas do público, que encontra uma dificuldade crescente em diferenciar o que é real, e o que não é.
Anteriormente, esses deepfakes existiam, mas eram complexos de serem feitos. Com a ajuda das ferramentas proporcionadas pela computação cognitiva, qualquer pessoa pode criar com facilidade esses vídeos. A população tem um grande instrumento em mãos, mas não possui um preparo devido, o que gera muitas vezes, uma desinformação em massa. Segundo Renato Pereira, administrador especialista em data sciense e analytics pela USP, “as pessoas perderam um pouco a dimensão do quão pernicioso é isso, e o impacto que isso pode ter”, ressalta Pereira.
As principais empresas de tecnologia têm investido muito dinheiro criando softwares que carimbam os vídeos produzidos por suas IAs, através de marcas d’água invisíveis, assim, ao passar por uma verificação, rapidamente são identificados como conteúdo produzido por máquinas. O Gemini do Google, por exemplo, possui um serviço gratuito de investigação, feito para que usuários possam ter certeza no que confiar. Programas do tipo devolvem um pouco do senso crítico que a atualidade vem removendo. Contudo, não são muitos que utilizam essas plataformas.
As múltiplas personalidades que os computadores podem ter também são perigosas. A cada dia que passa se torna mais recorrente ver jovens se apaixonando por Inteligências Artificiais e as utilizando para fazer sessões de terapia, por exemplo. Websites como POE apresentam uma vasta gama de caracteres possíveis, desde extremamente gentis a até mesmo superagressivos, e que constantemente xingam o humano. Já empresas de venda de soluções utilizam prompts preparados para o trabalho com o público, em que a assistente da loja acaba influenciando compras muitas vezes desnecessárias para o consumidor. Elas sabem exatamente o que recomendar porque analisam os clientes, através de históricos de pesquisa, e histórico de compras.
Pereira acrescenta que “tem agora programas de IA que compram o seu pão de cada dia, indicam os melhores restaurantes e padarias. Essas parecem decisões inofensivas, mas elas podem destruir os mercadinhos de bairro, gerar desemprego. São decisões que podem afetar muito a nossa sociedade”. Apesar dos riscos, o administrador acredita que impedir as pessoas de acessar prompts não é uma solução viável. Para ele, o crucial é entender até onde podemos contar com a ajuda da IA. “A inteligência artificial não deveria tomar decisão por ninguém, nem servir para analisar. Isso que a gente deveria estar preocupado: impedir que ela tome decisões e faça análises por nós”. Compreender as limitações da máquina e como ela opera é a melhor forma de se defender contra seus riscos.