No Brasil, uma em cada dez pessoas utilizam da Inteligência Artificial (IA) para fazer terapia, segundo a revista Superinteressante. Nos Estados Unidos, a situação é ainda mais assustadora. De acordo com uma matéria publicada pela jornalista Tamires Vitorio, pela revista Exame no dia 8 de agosto de 2025, aproximadamente 19% dos americanos, cerca de 49,2 milhões de adultos, utilizam ferramentas baseadas em IA como forma de terapia. O uso de inteligência artificial em conversas sobre sentimentos, ansiedade e solidão cresceu de forma exponencial nos últimos anos. A questão que fica é se a IA realmente é capaz de desvendar o sentimento humano. A psicóloga Bruna Santin Kalil, formada em psicologia pela Pontifícia Universidade Católica de São Paulo (PUC-SP) e graduanda pela UFSCAR (Universidade Federal de São Carlos), nos ajuda a entender os riscos dessa prática.
Em entrevista à AGEMT, Kalil ressalta que “o uso das tecnologias é um caminho sem volta, principalmente desde a experiência coletiva da pandemia[...]. Eu acho que assim como outros avanços tecnológicos, eles não são em si bons ou ruins, tudo depende do modo como a gente faz uso deles. Uma prática estruturada, um guia, isso pode ser reforçador para a pessoa implementar de fato no dia a dia o que se é proposto pela terapeuta.”
O Conselho Federal de Psicologia tem feito longas pesquisas sobre a IA, tendo publicado uma cartilha chamada "Chatbots, Inteligência Artificial e sua saúde mental", que nos ajuda a entender para quem essas ferramentas podem (ou não) ser úteis. De acordo com o artigo, os chatbots são comprovadamente inadequados e potencialmente perigosos, especificamente para pessoas que estão passando por crises e pensamentos de atentado contra a própria vida, por exemplo. Além de pessoas que sofrem de esquizofrenia, transtorno bipolar e entre tantos outros. O uso de tais ferramentas digitais para fins de diagnósticos psicológicos e de avaliação psicológica, pode gerar uma fragilidade e até agravamentos em determinados quadros de saúde, o que acaba adiando ou até impedindo a busca por tratamentos verdadeiramente adequados.

Uma das principais razões de tantos jovens recorrem ao uso da IA como forma de terapia se dá porque essas plataformas são gratuitas e dão repostas rápidas, normalmente aquelas "respostas que gostamos de ouvir" ao invés do que realmente necessitamos.
Kalil nos ajuda a entender este avanço da IA como terapeuta: "é preciso no processo terapêutico também se trabalhar os limites, também preparar as pessoas para irem desenvolvendo essa autorregulação, essa autonomia" E acrescenta: "não podemos reforçar esse lugar de uma resposta que tem que ser imediata, que não se tenha a sustentação do silêncio, a elaboração, a integração dos insights", explica Kalil.
Uma pesquisa realizada pelo fantástico (G1), publicado em setembro de 2025, aborda os maiores riscos da prática desse tipo de tratamento e da falta de programação específica: Alessandra Santos de Almeida, presidente do Conselho Federal de Psicologia (CFP), afirma categoricamente que não existe evidência científica de psicoterapia realizada por IA, pois essas ferramentas não foram programadas para esse fim terapêutico. Os principais exemplos dos riscos dessas práticas são a incapacidade de diagnóstico. Diferente de um profissional humano, a IA não possui formação clínica, não consegue realizar diagnósticos precisos, não tem preparo para lidar com crises graves ou ideações suicidas.
Um dos principais riscos é a quebra de sigilo: no consultório, o sigilo é um dever ético legal. Na IA, os dados íntimos são armazenados pelas empresas desenvolvedoras e podem ser usados para outros fins, expondo a privacidade do usuário. Ainda sobre o estudo publicado pelo G1, a repórter Renata Ceribelli testou uma ferramenta de IA sob a supervisão do psicanalista e professor da USP, Christian Dunker. A IA demonstrou uma "empatia simulada" e ofereceu conselhos que geraram uma sensação de acolhimento. No entanto, Dunker alerta que essa sensação é enganosa, pois o robô apenas formula respostas automáticas que imitam a interação humana.
O uso dos chatbots como forma de terapia, se usado da maneira correta e com o auxílio de um profissional pode sim servir como forma de ajuda para tratamentos psicológicos, mas jamais substituíram o "olho no olho", que só a interação humana é capaz de nos proporcionar. Existem diversos meios de conseguir ajuda para questões de saúde mental, o CVV (Centro de Valorização da Vida), oferece apoio emocional e prevenção ao suicídio de forma gratuita, 24 horas por dia, 7 dias por semana, pelo telefone ou chat discando 188, entre tantos outros existentes. Que a tecnologia nos forneça o auxílio para chegar mais longe, mas que nunca nos faça esquecer que a troca humana é o único remédio insubstituível.
Há um ano, a proibição do uso de celulares nas escolas brasileiras entrou em vigor. A lei número 15.100/2025, gerou reações diversas de professores e alunos tanto favoráveis quanto contrárias. De um lado, quem defende que o aparelho era uma fonte constante de distração; do outro, quem questiona se banir o celular resolve de fato os problemas de aprendizado. Porém, a lei abre exceção para o uso pedagógico, o que leva a uma outra discussão em relação ao uso da Inteligência Artificial nas escolas.
Em entrevista à AGEMT, o estrategista britânico em digital learning, Matt Lovegrove, discute que “as escolas precisam investir em inteligência artificial (IA). Se eles querem ajudar os alunos a terem o máximo de educação e investir em letramento de Inteligência Artificial, a melhor coisa é fornecer dispositivos one to one (modelo em que cada aluno tem acesso ao próprio laptop ou tablet)", explica Matt.
Matt reconhece que nem todas as escolas têm condições de bancar isso. Para esses casos, ele sugere dispositivos compartilhados — e só em último recurso, o uso controlado do celular, restrito a momentos específicos da aula. "Se as escolas forem fazer isso, tem que ser muito cuidadosamente controlado", afirma. Para ele, o celular não deve vazar para os momentos sociais: recreio, almoço, intervalos. A sociabilidade cara a cara, diz ele, é parte essencial do que a escola oferece. No Reino Unido, onde atua, políticas de restrição de celulares coexistem com forte investimento em infraestrutura tecnológica escolar, permitindo que a proibição de dispositivos pessoais não signifique exclusão digital.
No Brasil, a realidade é diferente. Pesquisa do CETIC.br revela que 60% dos estudantes brasileiros já usam inteligência artificial fora da escola, principalmente para realizar tarefas e responder dúvidas. Dentro das escolas, porém, o cenário é de desigualdade: apenas 30,4% das instituições públicas tinham conexão de internet adequada em 2025, contra 54,3% das privadas. Enquanto estudantes de escolas particulares tem mais chances de ter acesso orientado à tecnologia, grande parte dos alunos da rede pública aprende a usar essas ferramentas sozinho, sem mediação de professores e sem nenhum critério pedagógico.
Guilherme Cintra, diretor de Inovação e Tecnologia da Fundação Lemann, é uma das vozes mais ativas nesse debate. Para ele, o ponto de partida já ficou para trás. "A discussão já não é mais sobre aceitar ou não o uso dessas tecnologias, mas definir limites éticos e seguros para essa implementação", afirmou em artigo publicado pela Fundação Lemann. Cintra também explica o papel dos professores nesse processo de aprendizagem com a I.A em que destaca a capacidade de profissionais de criar uma troca entre os alunos.
"A nossa capacidade de criar e manter relações verdadeiras será o que nos distinguirá das máquinas" diz também Cintra em entrevista a CNN Brasil e acrescenta "Não podemos esperar que os professores assumam sozinhos a responsabilidade de toda essa mudança".
“A transformação é inevitável: algumas funções mais operacionais tendem a ser reduzidas, mas, ao mesmo tempo, surgem novas carreiras, mais estratégicas e analíticas". Em entrevista à AGEMT, Claudia Oliveira, que trabalha na eCOMEX, contou, na última semana (24), os desafios ligados ao uso crescente da IA no âmbito do trabalho. A profissional, que está inserida em uma empresa de tecnologia para o comércio exterior, traz diariamente soluções inovadoras para gestão, automação e compliance- e busca, em sua logística, uma maneira de se adaptar às mudanças dessa nova tecnologia empresarial. Um estudo feito pela Harvard Business Review em 2023, revelou que inteligências artificiais não substituem nenhum humano, mas os humanos com IA substituirão os humanos sem IA.
Esse artigo expõe que quanto mais as pessoas esperam que as empresas ofereçam experiências perfeitas desenvolvidas por IA, mais os líderes precisarão adotar essas tecnologias em seus negócios. Essas tecnologias cada vez mais estarão presentes no cotidiano de todos os seres humanos e existirá também uma remodelação dos setores, processos, eficiências e diminuição dos erros humanos. Isso porque quem as adota tem a expectativa de impulsionar cada vez mais a produtividade e a inovação, transformando a dinâmica do mercado de trabalho.
A substituição dos empregos à medida que as inteligências assumem as tarefas repetitivas é algo discutido pelas grandes empresas, em que certamente existirá mudanças internas que exigirão adaptação das mudanças tecnológicas. A IA está presente não para substituir completamente a capacidade humana, mas sim para completá-la trazendo mais oportunidades de desenvolvimento profissional. "Isso não se trata de eliminação pura e simples, mas de uma migração de competências. O profissional que se adaptar terá oportunidades ainda maiores”, afirmou Claudia.
O crescimento no Brasil
A inserção da tecnologia no mercado de trabalho é um tema que cresce diariamente e não deve ser negligenciado. Discutir o caráter ambivalente das IAS permite uma forma de compreender os seus impactos no cotidiano e as possíveis maneiras para amenizar os seus prejuízos. Se por um lado essa novidade traz uma maior automatização do trabalho, com respostas eficientes às perguntas, por outro lado, substitui grande parte da mão de obra física empresarial. O que entra em discussão é um dilema entre facilidade x temor dentro do mercado de trabalho.
O crescimento exponencial das recentes tecnologias vêm surgindo com o desembarque dessa geração tecnológica que se preocupa com resultados rápidos e diversos, na qual as IAs generativas entregam isso de forma acessível e fácil. Para Cláudia, “o interesse das empresas brasileiras por Inteligência Artificial cresce porque ela proporciona ganhos reais de eficiência, escalabilidade e competitividade”.
Essa facilidade dentro do mercado de trabalho pode trazer benefícios como a praticidade e maior produtividade, mas também riscos, como a demissão de trabalhadores devido à automatização de serviços. Apesar disso, ela acredita que o Brasil deva investir em inteligências degenerativas, já que a adoção de tais já é uma realidade presente em grandes potências econômicas globais, tais quais China e Estados Unidos. "Ignorar esse movimento pode significar perda de espaço no mercado global”, relatou ela.
As novas tecnologias substituem determinados tipos de trabalhos, mas indivíduos e empresas que souberem utilizar a IA para ampliar a produtividade e diversificar os serviços ofertados certamente terão vantagens competitivas. Para que esse processo seja levado durante as novas gerações, é necessário que o sistema educacional se adapte para essa nova realidade formando e preparando profissionais qualificados. Para a profissional, não é possível frear o avanço da tecnologia, que cresce diariamente. A fórmula correta seria a da substituição, isso é, o profissional deve usar a seu favor a tecnologia, a partir de uma mudança de postura dentro do trabalho.
“Funções repetitivas e de baixo valor tendem a perder espaço no mercado de trabalho, mas profissionais que souberem integrar a tecnologia ao seu dia a dia terão grande vantagem competitiva. O ponto central não é temer a IA, mas aprender a utilizá-la como ferramenta para ampliação de capacidades humanas”, diz ela.
Dessa forma, o jeito é aprender a lidar com essa tecnologia, ao desenvolver conhecimentos a seu respeito. Para Cláudia, a melhor forma é investir continuamente em atualização. “Quanto maior o domínio sobre a tecnologia, maior o potencial de utilizá-la como diferencial competitivo. Preparação, curiosidade e adaptação serão determinantes para aproveitar plenamente essa fase de transformação”, falou ela.
O avanço acelerado da Inteligência Artificial (IA) consolidou um oligopólio corporativo que, ao priorizar a busca por uma "superinteligência" utópica, agrava crises ambientais, éticas e geopolíticas no presente. Distante da promessa inicial de emancipação tecnológica, o setor aprofunda a desigualdade, a exploração de dados e a concentração de poder global.
No Vale do Silício dos anos 1990, a tecnologia era vista como o motor do progresso humano, centrada no empreendedorismo e na genialidade individual, livre de interferências estatais. Contudo, a evolução desse cenário resultou no aprofundamento da desigualdade digital e na consolidação de um modelo neoliberal. Atualmente, a crença de que a inovação resolveria problemas sociais abriu caminho para visões ainda mais ambiciosas, que encaram a IA não como uma ferramenta, mas como um destino civilizatório.
Pesquisadores como Timnit Gebru e Émile Torres classificam o arcabouço ideológico que guia os atuais líderes tecnológicos sob a sigla TESCREAL (Transumanismo, Extropianismo, Singularitarianismo, Cosmismo, Racionalismo, Altruísmo Efetivo e Longoprazismo). Esse conjunto de crenças normaliza a corrida pela superinteligência como um fim inevitável. O objetivo central dessa vertente deixa de ser a melhoria da condição humana para buscar a sua superação física e mental.
Na prática, a realidade operacional da tecnologia difere dessas promessas filosóficas. Plataformas de Inteligência Artificial Generativa (IAG), como ChatGPT, Gemini, DeepSeek e Grok, operam com algoritmos focados em tarefas específicas e cálculos probabilísticos. Esses sistemas não possuem compreensão real de significados ou relações sociais. Além disso, a dependência governamental e corporativa dessas tecnologias consolida o controle da infraestrutura global nas mãos de poucas empresas, que se posicionam como guardiãs do futuro.
Sob a lógica do capitalismo de vigilância, o aprimoramento desses sistemas depende da extração contínua de dados comportamentais. O reflexo imediato desse processamento é a geração de conteúdos hiper-realistas, como deepfakes. O emprego dessa tecnologia para produzir discursos de ódio e notícias falsas tornou-se um dos principais desafios contemporâneos, afetando diretamente o pensamento crítico e a integridade de processos democráticos.
Governador da California, Gavin Newsom. Foto: Sheila Fitzgerald / Shutterstock
É o impacto prático dessa falta de controle que tem forçado as primeiras reações governamentais. Em 2025, o governador da Califórnia, Gavin Newsom, promulga lei de regulação para grandes modelos de IA exigindo testes de segurança e transparência nos protocolos de prevenção de abusos. A medida enfrenta resistência de gigantes do setor, que temem impacto na competitividade global. A União Europeia também avança com legislações mais rígidas, enquanto países do G20 discutem padrões internacionais de governança.
"Temos visto exemplos realmente horríveis e trágicos de jovens prejudicados pela tecnologia não regulamentada, e não ficaremos de braços cruzados enquanto as empresas continuam sem limites necessários e sem prestar contas", diz em comunicado o governador Newson ao promulgar a lei. No âmbito geopolítico, a IA redefine as fronteiras dos conflitos armados. Decisões estratégicas passam a ser mediadas por sistemas algorítmicos, e especialistas em segurança apontam que a guerra moderna tende a favorecer forças com maior poder computacional. O conflito atual envolvendo Estados Unidos e Israel contra o Irã evidencia essa assimetria: enquanto Washington e Tel Aviv operam sistemas avançados de defesa automatizada, análise em tempo real e vigilância baseada em IA, o Irã depende de capacidades tecnológicas mais limitadas. A disparidade reforça o desequilíbrio militar global e ilustra como a superioridade computacional se torna elemento central na definição de poder e na condução de operações militares.
A crise atinge, portanto, o campo ético. A pesquisadora e engenheira elétrica, graduada pela Universidade São Francisco e pós-graduada pela Unicamp, Marcilene Ribeiro, realizou pesquisas sobre a Inteligência Artificial durante os anos de 2024 e 2025 nos Estados Unidos e afirma que, desenvolvida sob interesses corporativos e geopolíticos, a IA tende a perpetuar hierarquias econômicas, políticas e biológicas.
Pesquisadora Marcilene Ribeiro. Foto: Linkedin
"Ao focar nas promessas de erradicação futura da pobreza ou reversão climática a partir da superinteligência, o modelo atual de desenvolvimento da IA falha em apresentar soluções práticas para o presente, correndo o risco de justificar o agravamento das crises atuais em nome de um amanhã idealizado.", finaliza Marcilene.
Com a rápida evolução das Inteligências Artificiais (IA), desde a primeira versão do ChatGPT em novembro de 2022, o mundo se encontra em um estado de vulnerabilidade constante. Enquanto a tecnologia coloca um poder imenso nas mãos de qualquer usuário, a sociedade enfrenta a dificuldade para lidar com as consequências dessa facilidade. A desinformação em massa, o surgimento de relações emocionais com algoritmos e a perda de escolhas cotidianas são apenas reflexo dessa falta de preparo.
Vídeos feitos por IA tem se tornado cada vez mais comuns nas redes sociais. Gatos cantando, utensílios de cozinha contando curiosidades culinárias e até mesmo dramas familiares como espécies de brigadeiros são publicados diariamente, ganhando muitas visualizações. Nestes casos, é claro perceber que aqueles vídeos não condizem com a realidade, mas com o avanço de tecnologias como Sora2, VEO3 e Kling V2.1, vídeos ultrarrealistas têm disputado cada vez mais tempo nas telas do público, que encontra uma dificuldade crescente em diferenciar o que é real, e o que não é.
Anteriormente, esses deepfakes existiam, mas eram complexos de serem feitos. Com a ajuda das ferramentas proporcionadas pela computação cognitiva, qualquer pessoa pode criar com facilidade esses vídeos. A população tem um grande instrumento em mãos, mas não possui um preparo devido, o que gera muitas vezes, uma desinformação em massa. Segundo Renato Pereira, administrador especialista em data sciense e analytics pela USP, “as pessoas perderam um pouco a dimensão do quão pernicioso é isso, e o impacto que isso pode ter”, ressalta Pereira.
As principais empresas de tecnologia têm investido muito dinheiro criando softwares que carimbam os vídeos produzidos por suas IAs, através de marcas d’água invisíveis, assim, ao passar por uma verificação, rapidamente são identificados como conteúdo produzido por máquinas. O Gemini do Google, por exemplo, possui um serviço gratuito de investigação, feito para que usuários possam ter certeza no que confiar. Programas do tipo devolvem um pouco do senso crítico que a atualidade vem removendo. Contudo, não são muitos que utilizam essas plataformas.
As múltiplas personalidades que os computadores podem ter também são perigosas. A cada dia que passa se torna mais recorrente ver jovens se apaixonando por Inteligências Artificiais e as utilizando para fazer sessões de terapia, por exemplo. Websites como POE apresentam uma vasta gama de caracteres possíveis, desde extremamente gentis a até mesmo superagressivos, e que constantemente xingam o humano. Já empresas de venda de soluções utilizam prompts preparados para o trabalho com o público, em que a assistente da loja acaba influenciando compras muitas vezes desnecessárias para o consumidor. Elas sabem exatamente o que recomendar porque analisam os clientes, através de históricos de pesquisa, e histórico de compras.
Pereira acrescenta que “tem agora programas de IA que compram o seu pão de cada dia, indicam os melhores restaurantes e padarias. Essas parecem decisões inofensivas, mas elas podem destruir os mercadinhos de bairro, gerar desemprego. São decisões que podem afetar muito a nossa sociedade”. Apesar dos riscos, o administrador acredita que impedir as pessoas de acessar prompts não é uma solução viável. Para ele, o crucial é entender até onde podemos contar com a ajuda da IA. “A inteligência artificial não deveria tomar decisão por ninguém, nem servir para analisar. Isso que a gente deveria estar preocupado: impedir que ela tome decisões e faça análises por nós”. Compreender as limitações da máquina e como ela opera é a melhor forma de se defender contra seus riscos.