Ad image

ChatGPT e saúde mental: especialistas alertam para riscos do uso da IA no cuidado psicológico

Ferramenta pode auxiliar como apoio, mas não deve substituir acompanhamento profissional, dizem especialistas

Danieli Aguiar
Por Danieli Aguiar 2 Min Leitura
2 Min Leitura
Especialistas alertam para os riscos do uso de chatbots no cuidado psicológicoImagem: Freepik
ouça o post

O avanço da inteligência artificial abriu espaço para que ferramentas como o ChatGPT sejam utilizadas por pessoas em busca de acolhimento emocional. No Brasil, uma em cada dez recorre à tecnologia para apoio psicológico. Especialistas, no entanto, alertam para riscos como a falsa sensação de cuidado, normalização de sinais de alerta e até adiamento da busca por terapia ou psiquiatria.

Entre os principais perigos estão a dependência emocional, a ruminação constante e a exposição de informações sensíveis em plataformas digitais. O modelo pode oferecer respostas rápidas, mas não substitui a escuta ativa e o olhar humano treinado para identificar nuances emocionais e riscos de autoagressão.

Uso colaborativo e não substitutivo

Especialistas defendem que a IA pode ser utilizada como ferramenta complementar, por exemplo, para organizar diários emocionais ou identificar padrões de comportamento a serem discutidos em sessões de terapia. No entanto, ressaltam que o contato humano continua insubstituível no cuidado em saúde mental.

Para o uso seguro, orientam senso crítico do usuário, limites de tempo, proteção de dados e atenção a sinais de alerta como isolamento social, dependência da ferramenta e adiamento de tratamento clínico.

A OpenAI anunciou recentemente medidas como controles parentais e melhorias na detecção de sofrimento emocional, em resposta à preocupação crescente sobre o impacto da tecnologia no bem-estar mental.

Compartilhe esse Artigo
Deixe sua opnião
Verified by MonsterInsights