O avanço da inteligência artificial abriu espaço para que ferramentas como o ChatGPT sejam utilizadas por pessoas em busca de acolhimento emocional. No Brasil, uma em cada dez recorre à tecnologia para apoio psicológico. Especialistas, no entanto, alertam para riscos como a falsa sensação de cuidado, normalização de sinais de alerta e até adiamento da busca por terapia ou psiquiatria.
Entre os principais perigos estão a dependência emocional, a ruminação constante e a exposição de informações sensíveis em plataformas digitais. O modelo pode oferecer respostas rápidas, mas não substitui a escuta ativa e o olhar humano treinado para identificar nuances emocionais e riscos de autoagressão.
Uso colaborativo e não substitutivo
Especialistas defendem que a IA pode ser utilizada como ferramenta complementar, por exemplo, para organizar diários emocionais ou identificar padrões de comportamento a serem discutidos em sessões de terapia. No entanto, ressaltam que o contato humano continua insubstituível no cuidado em saúde mental.
Para o uso seguro, orientam senso crítico do usuário, limites de tempo, proteção de dados e atenção a sinais de alerta como isolamento social, dependência da ferramenta e adiamento de tratamento clínico.
A OpenAI anunciou recentemente medidas como controles parentais e melhorias na detecção de sofrimento emocional, em resposta à preocupação crescente sobre o impacto da tecnologia no bem-estar mental.




