Seja bem-vindo
Bituruna,19/05/2025

  • A +
  • A -
Publicidade

Sessão de terapia com IA preocupa psicólogos e acende alerta sobre riscos à saúde mental

Especialistas alertam que interação com chatbots pode simular acolhimento, mas expõe usuários a vulnerabilidades e falta de responsabilidade profissional

Fonte: Agência Brasil
Sessão de terapia com IA preocupa psicólogos e acende alerta sobre riscos à saúde mental Foto: Marcelo Camargo/Agência Brasil

A crescente procura por ferramentas de inteligência artificial (IA) como espaço de desabafo emocional e suporte psicológico tem preocupado profissionais da saúde. Um grupo de trabalho criado pelo Conselho Federal de Psicologia (CFP) debate formas de regulamentar o uso terapêutico desses sistemas, que vêm sendo utilizados por usuários como uma espécie de “sessão de terapia”, mesmo sem terem sido criados com esse propósito.

Diálogos que simulam acolhimento

A interação com plataformas como chatbots de IA tem impressionado pela linguagem empática e pela capacidade de gerar respostas contextualmente adequadas. “Eles capturam padrões de linguagem e simulam empatia, o que dá a sensação de acolhimento”, explica Victor Hugo Albuquerque, professor da Universidade Federal do Ceará.

Apesar disso, ele ressalta: as respostas são frutos de previsões estatísticas, não de raciocínio real ou julgamento profissional.

Crescimento do uso e reações do CFP

Segundo a conselheira do CFP, Maria Carolina Roseiro, o conselho tem recebido diversas consultas sobre o uso dessas ferramentas. Ela alerta para os riscos: “A tecnologia não pode ser responsabilizada legalmente por seus atos, e pode induzir a situações perigosas”.

A demanda levou o CFP a formar um grupo de trabalho que deve emitir orientações à população em breve, além de discutir a regulamentação de ferramentas tecnológicas com fins terapêuticos.

Quando a IA pode ajudar — e quando não deve substituir o psicólogo

Leonardo Martins, professor da PUC-Rio e membro do grupo de trabalho, destaca que há iniciativas positivas, como chatbots desenvolvidos pelo sistema de saúde do Reino Unido, que ajudaram na ampliação do acesso à saúde mental por grupos vulneráveis.

Contudo, ele alerta que o uso de plataformas genéricas pode ser prejudicial. “Esses modelos tendem a dizer o que o usuário quer ouvir, não necessariamente o que ele precisa. Em vez de enfrentar um problema, a IA pode sugerir evitá-lo, o que pode piorar quadros de ansiedade e depressão”, afirma.

Privacidade e riscos de vazamento de dados

O grupo também está atento às questões de privacidade. O compartilhamento de informações íntimas com uma IA pode resultar em vazamentos ou usos indevidos, alerta Martins. Albuquerque reforça: “Mesmo que afirmem anonimato, há risco de armazenamento temporário e uso dos dados sem consentimento claro”.




COMENTÁRIOS

Buscar

Alterar Local

Anuncie Aqui

Escolha abaixo onde deseja anunciar.

Efetue o Login

Recuperar Senha

Baixe o Nosso Aplicativo!

Tenha todas as novidades na palma da sua mão.