Uma busca rápida na internet revela centenas de relatos de brasileiros que encontraram na inteligência artificial um tipo de “terapia virtual”. Pelas redes sociais, jovens ensinam como configurar assistentes de IA para que se comportem como “terapeutas clínicos especializados” no tratamento de problemas como ansiedade, depressão e estresse.
Alguns usuários dizem que até deram nomes para suas IAs, criaram históricos de conversas e relatam terem se emocionado com as respostas recebidas. “Melhor coisa que me aconteceu”, relatou uma usuária em um vídeo no TikTok que já soma milhares de visualizações.

Esses “terapeutas virtuais” são programados para oferecer escuta ativa, respostas empáticas e até acompanhamento de conversas anteriores, simulando o papel de um profissional de saúde mental — tudo de forma gratuita.
Apesar dos relatos de alívio emocional e sensação de bem-estar, especialistas fazem um alerta: inteligência artificial não substitui o trabalho de psicólogos e profissionais da saúde mental. Segundo eles, há um risco quando as pessoas passam a depender dessas interações, que podem ser limitadas, enviesadas e sem validação científica.
“O que a IA faz, muitas vezes, é uma mistura de empatia simulada com reforço positivo. Isso não é terapia. Ela não avalia, não diagnostica e não faz intervenções baseadas na ciência psicológica”, explica a psicóloga e pesquisadora em saúde mental digital, Marina Lopes.
O professor e pesquisador Diogo Cortiz reforça que a principal questão é entender qual o limite entre o que a IA pode oferecer e onde ela falha.
“O desafio é entender em que momento a IA pode ser útil no processo terapêutico. Hoje, o que temos é humano projetando uma relação com a máquina, mas ela não está nem aí”, afirma.
Além disso, Cortiz alerta para os riscos à privacidade. Muitas das ferramentas de IA utilizam as conversas dos usuários para aprimorar seus modelos.
“Muita gente não lê os termos de uso. Algumas ferramentas de IA, principalmente as de companhia, preveem que os dados de conversa podem ser vendidos para outras plataformas. As empresas usam essas interações para treinar as próximas gerações de IA”, explica.
Outro ponto crítico é a confiabilidade das informações fornecidas. Para o psicólogo brasileiro Bruno Farias, pesquisas internacionais que tentam validar IAs como terapeutas carecem de rigor científico.
“Na verdade, a ciência vem estudando as inteligências artificiais e percebendo algo muito perigoso: que as IAs, principalmente o ChatGPT, cometem muitos erros e passam informações equivocadas. Quando falamos sobre saúde, uma informação errada pode custar muito caro”, alerta.
No Brasil, pesquisadores também têm analisado o impacto dos apps de saúde mental. Um estudo conduzido pelo MediaLab da UFRJ (Universidade Federal do Rio de Janeiro) avaliou dez aplicativos gratuitos de autocuidado mental, baseados na lógica do “faça você mesmo”. O resultado? Todos ofereceram respostas genéricas, superficiais e muito parecidas, sem considerar a individualidade dos usuários.
Além dos riscos éticos, de privacidade e de informações incorretas, pesquisas acadêmicas no mundo todo tentam entender se, de fato, a IA pode funcionar como ferramenta terapêutica. Um exemplo é o chatbot desenvolvido na Dartmouth College, nos EUA, que oferece intervenções estruturadas, mas os próprios autores reconhecem: a IA pode, no máximo, funcionar como apoio emocional complementar — jamais como substituta da psicoterapia conduzida por profissionais habilitados.
Essa tendência, que ganha força nas redes sociais, expõe dois fenômenos importantes: a crescente busca por saúde mental no Brasil e a popularização da IA no cotidiano. O consenso entre especialistas, porém, é claro: nenhuma tecnologia deve substituir o acompanhamento psicológico profissional.
*Da Agência Fonte Exclusiva