Terapia pelo clique

Um em cada dez brasileiros conversam com chatbots como forma de tratamento para questões psicológicas
por
Joana Prando
Gabriel Giannini
|
30/03/2026 - 12h

 

No Brasil, uma em cada dez pessoas utilizam da Inteligência Artificial (IA) para fazer terapia, segundo a revista Superinteressante. Nos Estados Unidos, a situação é ainda mais assustadora. De acordo com uma matéria publicada pela jornalista Tamires Vitorio, pela revista Exame no dia 8 de agosto de 2025, aproximadamente 19% dos americanos, cerca de 49,2 milhões de adultos, utilizam ferramentas baseadas em IA como forma de terapia. O uso de inteligência artificial em conversas sobre sentimentos, ansiedade e solidão cresceu de forma exponencial nos últimos anos. A questão que fica é se a IA realmente é capaz de desvendar o sentimento humano. A psicóloga Bruna Santin Kalil, formada em psicologia pela Pontifícia Universidade Católica de São Paulo (PUC-SP) e graduanda pela UFSCAR (Universidade Federal de São Carlos), nos ajuda  a entender os riscos dessa prática. 

Em entrevista à AGEMT, Kalil ressalta que “o uso das tecnologias é um caminho sem volta, principalmente desde a experiência coletiva da pandemia[...]. Eu acho que assim como outros avanços tecnológicos, eles não são em si bons ou ruins, tudo depende do modo como a gente faz uso deles. Uma prática estruturada, um guia, isso pode ser reforçador para a pessoa implementar de fato no dia a dia o que se é proposto pela terapeuta.”  

O Conselho Federal de Psicologia tem feito longas pesquisas sobre a IA, tendo publicado uma cartilha chamada "Chatbots, Inteligência Artificial e sua saúde mental", que nos ajuda a entender para quem essas ferramentas podem (ou não) ser úteis. De acordo com o artigo, os chatbots são comprovadamente inadequados e potencialmente perigosos, especificamente para pessoas que estão passando por crises e pensamentos de atentado contra a própria vida, por exemplo. Além de pessoas que sofrem de esquizofrenia, transtorno bipolar e entre tantos outros. O uso de tais ferramentas digitais para fins de diagnósticos psicológicos e de avaliação psicológica, pode gerar uma fragilidade e até agravamentos em determinados quadros de saúde, o que acaba adiando ou até impedindo a busca por tratamentos verdadeiramente adequados. 

créditos: imagem gerada por IA. Pessoa fazendo uso da terapia com IA

 

 

 

Uma das principais razões de tantos jovens recorrem ao uso da IA como forma de terapia se dá porque essas plataformas são gratuitas e dão repostas rápidas, normalmente aquelas "respostas que gostamos de ouvir" ao invés do que realmente necessitamos. 

Kalil nos ajuda a entender este avanço da IA como terapeuta: "é preciso no processo terapêutico também se trabalhar os limites, também preparar as pessoas para irem desenvolvendo essa autorregulação, essa autonomia" E acrescenta: "não podemos reforçar esse lugar de uma resposta que tem que ser imediata, que não se tenha a sustentação do silêncio, a elaboração, a integração dos insights", explica Kalil.

Uma pesquisa realizada pelo fantástico (G1), publicado em setembro de 2025, aborda os maiores riscos da prática desse tipo de tratamento e da falta de programação específica: Alessandra Santos de Almeida, presidente do Conselho Federal de Psicologia (CFP), afirma categoricamente que não existe evidência científica de psicoterapia realizada por IA, pois essas ferramentas não foram programadas para esse fim terapêutico. Os principais exemplos dos riscos dessas práticas são a incapacidade de diagnóstico. Diferente de um profissional humano, a IA não possui formação clínica, não consegue realizar diagnósticos precisos, não tem preparo para lidar com crises graves ou ideações suicidas.

Um dos principais riscos é a quebra de sigilo: no consultório, o sigilo é um dever ético legal. Na IA, os dados íntimos são armazenados pelas empresas desenvolvedoras e podem ser usados para outros fins, expondo a privacidade do usuário. Ainda sobre o estudo publicado pelo G1, a repórter Renata Ceribelli testou uma ferramenta de IA sob a supervisão do psicanalista e professor da USP, Christian Dunker. A IA demonstrou uma "empatia simulada" e ofereceu conselhos que geraram uma sensação de acolhimento. No entanto, Dunker alerta que essa sensação é enganosa, pois o robô apenas formula respostas automáticas que imitam a interação humana. 

O uso dos chatbots como forma de terapia, se usado da maneira correta e com o auxílio de um profissional pode sim servir como forma de ajuda para tratamentos psicológicos, mas jamais substituíram o "olho no olho", que só a interação humana é capaz de nos proporcionar. Existem diversos meios de conseguir ajuda para questões de saúde mental, o CVV (Centro de Valorização da Vida), oferece apoio emocional e prevenção ao suicídio de forma gratuita, 24 horas por dia, 7 dias por semana, pelo telefone ou chat discando 188, entre tantos outros existentes. Que a tecnologia nos forneça o auxílio para chegar mais longe, mas que nunca nos faça esquecer que a troca humana é o único remédio insubstituível.  

Tags: