Sessão de terapia com IA preocupa psicólogos e acende alerta sobre riscos à saúde mental
Especialistas alertam que interação com chatbots pode simular acolhimento, mas expõe usuários a vulnerabilidades e falta de responsabilidade profissional

A crescente procura por ferramentas de inteligência artificial (IA) como espaço de desabafo emocional e suporte psicológico tem preocupado profissionais da saúde. Um grupo de trabalho criado pelo Conselho Federal de Psicologia (CFP) debate formas de regulamentar o uso terapêutico desses sistemas, que vêm sendo utilizados por usuários como uma espécie de “sessão de terapia”, mesmo sem terem sido criados com esse propósito.
Diálogos que simulam acolhimento
A interação com plataformas como chatbots de IA tem impressionado pela linguagem empática e pela capacidade de gerar respostas contextualmente adequadas. “Eles capturam padrões de linguagem e simulam empatia, o que dá a sensação de acolhimento”, explica Victor Hugo Albuquerque, professor da Universidade Federal do Ceará.
Apesar disso, ele ressalta: as respostas são frutos de previsões estatísticas, não de raciocínio real ou julgamento profissional.
Crescimento do uso e reações do CFP
Segundo a conselheira do CFP, Maria Carolina Roseiro, o conselho tem recebido diversas consultas sobre o uso dessas ferramentas. Ela alerta para os riscos: “A tecnologia não pode ser responsabilizada legalmente por seus atos, e pode induzir a situações perigosas”.
A demanda levou o CFP a formar um grupo de trabalho que deve emitir orientações à população em breve, além de discutir a regulamentação de ferramentas tecnológicas com fins terapêuticos.
Quando a IA pode ajudar — e quando não deve substituir o psicólogo
Leonardo Martins, professor da PUC-Rio e membro do grupo de trabalho, destaca que há iniciativas positivas, como chatbots desenvolvidos pelo sistema de saúde do Reino Unido, que ajudaram na ampliação do acesso à saúde mental por grupos vulneráveis.
Contudo, ele alerta que o uso de plataformas genéricas pode ser prejudicial. “Esses modelos tendem a dizer o que o usuário quer ouvir, não necessariamente o que ele precisa. Em vez de enfrentar um problema, a IA pode sugerir evitá-lo, o que pode piorar quadros de ansiedade e depressão”, afirma.
Privacidade e riscos de vazamento de dados
O grupo também está atento às questões de privacidade. O compartilhamento de informações íntimas com uma IA pode resultar em vazamentos ou usos indevidos, alerta Martins. Albuquerque reforça: “Mesmo que afirmem anonimato, há risco de armazenamento temporário e uso dos dados sem consentimento claro”.
COMENTÁRIOS