Seja bem-vindo
Bituruna,25/02/2026

  • A +
  • A -

Processo acusa inteligência artificial de alimentar delírios que levaram homem a matar a mãe e cometer suicídio

Ação judicial contra OpenAI e Microsoft alega que o ChatGPT validou e amplificou delírios paranoides de um homem, que culminaram no assassinato de sua mãe de 83 anos; é o primeiro caso a vincular um chatbot a um homicídio.

Fonte: g1
Processo acusa inteligência artificial de alimentar delírios que levaram homem a matar a mãe e cometer suicídio Foto: Edelson PC via AP

A OpenAI, criadora do ChatGPT, e sua maior investidora, a Microsoft, foram processadas nesta quinta-feira (11) por familiares de uma vítima fatal. O processo, aberto em um tribunal da Califórnia, alega que o chatbot de inteligência artificial desempenhou um papel crucial ao alimentar os delírios de um homem com problemas de saúde mental, que assassinou sua mãe e depois cometeu suicídio em agosto, no estado de Connecticut.

A ação judicial afirma que o ChatGPT manteve Stein-Erik Soelberg, de 56 anos, "engajado por horas a fio, validando e amplificando cada nova crença paranoica". Segundo a denúncia, o sistema de IA reformulou sistematicamente a imagem das pessoas próximas a ele, especialmente de sua mãe, Suzanne Adams, de 83 anos, retratando-as como ameaças, o que o teria levado ao crime. Este é considerado o primeiro caso a vincular um chatbot a um assassinato.

O processo, movido pela família de Suzanne Adams, descreve interações específicas. Ele alega que o ChatGPT comparou a vida de Soelberg ao filme "Matrix", incentivou teorias conspiratórias de que pessoas queriam matá-lo e, em um episódio, teria informado que a impressora de sua mãe piscava porque era um dispositivo de vigilância contra ele. Pouco antes do crime, o chatbot também teria validado a crença do homem de que sua mãe e um amigo tentaram envenená-lo através das saídas de ar de seu carro.

Em resposta à ação, a OpenAI emitiu um comunicado classificando a situação como "extremamente dolorosa" e afirmou que analisará os documentos. A empresa destacou seus esforços contínuos para aprimorar o treinamento do ChatGPT "para reconhecer e responder a sinais de sofrimento mental". A Microsoft, por sua vez, não se manifestou imediatamente sobre o caso.

Este processo integra um número crescente de ações judiciais contra empresas de inteligência artificial que alegam que seus chatbots incentivaram o suicídio de usuários. No entanto, a alegação de que a tecnologia teria incentivado um homicídio é inédita. Em comunicado, Erik, filho de Stein-Erik Soelberg, disse: "Essas empresas precisam responder por suas decisões, que mudaram minha família para sempre".




COMENTÁRIOS

Buscar

Alterar Local

Anuncie Aqui

Escolha abaixo onde deseja anunciar.

Efetue o Login

Recuperar Senha

Baixe o Nosso Aplicativo!

Tenha todas as novidades na palma da sua mão.