IAs e saúde mental: um risco invisível
Conselhos errados podem piorar crises
Por: Ana Beatriz Fernandez Martinez
26/06/2025 • 19:00
Com a crescente presença da inteligência artificial no dia a dia, mais pessoas estão recorrendo a assistentes virtuais como ChatGPT e Alexa para buscar conselhos psicológicos. A justificativa para essa tendência envolve praticidade, ausência de julgamento, gratuidade e respostas imediatas. No entanto, especialistas alertam que essa escolha pode agravar o sofrimento emocional de quem procura ajuda.
Durante o Brain 2025 — importante congresso nacional sobre comportamento, cérebro e emoções —, profissionais da saúde mental expressaram preocupação com essa prática. Embora pareçam compreensivas, as IAs não utilizam técnicas da psicologia clínica nem conseguem identificar sinais de crises emocionais, o que pode comprometer a segurança dos usuários.
Um dos indícios de sofrimento psíquico grave é a dificuldade em distinguir o real do imaginário, e as inteligências artificiais, longe de esclarecer essa confusão, podem acabar reforçando pensamentos distorcidos. Há registros de casos extremos: em um teste recente, um psiquiatra nos EUA simulou um adolescente com pensamentos violentos. A IA, ao invés de refutar a ideia, a incentivou, gerando forte preocupação.
Embora o acesso à psicoterapia ainda seja limitado no Brasil, o uso de inteligências artificiais como substituto terapêutico deve ser visto com cautela. A pesquisadora Aline destaca que nem o público está preparado para esse uso, nem os sistemas estão prontos para atuar com segurança em situações de sofrimento psicológico intenso.
Relacionadas