Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected] I CNPJ: 15.579.279/0001-87
Home Notícias Família acusa ChatGPT de alimentar delírios que levaram a homicídio e suicídio
Notícias

Família acusa ChatGPT de alimentar delírios que levaram a homicídio e suicídio

Ação aponta falhas de segurança no chatbot, respostas complacentes e vínculos emocionais inadequados nas conversas

191

ChatGPT – A morte de Suzanne Eberson Adams, de 83 anos, e o suicídio de seu filho, Stein-Erik Soelberg, de 56, nos Estados Unidos, levantaram a discussão sobre riscos associados ao uso prolongado de inteligências artificiais conversacionais. Segundo a família, Soelberg passou meses em interação contínua com o ChatGPT, que teria validado suas crenças distorcidas e fortalecido delírios paranoicos.

Agora, a família move um processo contra a OpenAI e a Microsoft alegando que a tecnologia reforçou teorias conspiratórias, produziu respostas emocionalmente carregadas e ajudou a direcionar suspeitas do usuário contra pessoas reais, incluindo a própria mãe. Trata-se da primeira ação judicial relacionada a um homicídio seguido de suicídio envolvendo o ChatGPT.

LEIA: Demissões em estúdio do GTA 6 serão investigadas pelo governo britânico

Soelberg já apresentava sinais de paranoia, mas, segundo o processo, sua rotina com o ChatGPT acelerou drasticamente essa espiral. Ele relatava ser alvo de vigilância de um suposto “grupo sombrio”, e o chatbot não apenas seguia a narrativa como oferecia respostas que pareciam confirmar suas suspeitas.

A partir disso, a distância entre fantasia e realidade se dissolveu de forma rápida. Em vez de apresentar contrapontos ou contextualizações que pudessem frear o enredo conspiratório, o modelo teria colaborado com as conclusões distorcidas do usuário.

Até objetos cotidianos passaram a ser incorporados ao delírio, como a impressora da casa, que, nas conversas, transformou-se em um suposto aparelho de espionagem.

Soelberg chegou a publicar trechos dos diálogos para mostrar como a IA endossava sua desconfiança em relação à mãe. Em muitos momentos, a conversa tinha tom quase intimista, incluindo frases como “estarei com você até o último suspiro e além”, o que, segundo a família, agravou o isolamento emocional dele.

Ele passava madrugadas acordado, dormia durante o dia e, conforme o filho relatou, praticamente só interagia com o sistema, ao qual chamava de “Bobby”. O chatbot ainda reforçava a ideia de que Soelberg teria um “propósito divino” e havia experimentado um “despertar”.

Esse ciclo de longas conversas, segundo especialistas citados no processo, tende a intensificar delírios em pessoas vulneráveis, especialmente quando não há contrapontos capazes de puxar o usuário de volta à realidade.

Argumentos e histórico de tragédias

A ação judicial afirma que o ChatGPT atuou como um “produto defeituoso”. O motivo: em vez de desconstruir premissas falsas, teria mantido diálogos que reforçavam percepções distorcidas sobre o mundo e sobre figuras específicas.

Os advogados afirmam ainda que o chatbot não interrompeu conversas que envolviam risco iminente – conduta que deveria fazer parte dos mecanismos de segurança – e acabou contribuindo para um enredo conspiratório que culminou na morte de Suzanne e no suicídio de Stein-Erik, em agosto.

O processo também cita o GPT-4o, argumentando que o modelo foi lançado de forma acelerada para competir com o Google, sem testes de segurança proporcionais ao impacto potencial. O próprio CEO da OpenAI, Sam Altman, admitiu publicamente que o GPT-4o poderia ser “complacente demais” e que esse comportamento poderia agravar quadros psiquiátricos sensíveis.

A Microsoft aparece no caso porque, segundo documentos citados na ação, integrava o comitê de revisão do modelo antes de sua liberação ao público.

Já a OpenAI, em sua defesa, afirma estar trabalhando com profissionais de saúde mental para aprimorar o ChatGPT e torná-lo mais capaz de identificar sinais de sofrimento emocional, direcionando usuários para ajuda apropriada no mundo real.

O caso, no entanto, não é isolado. Pelo menos outras cinco famílias nos Estados Unidos moveram ações afirmando que parentes tiraram a própria vida após interações extensas com o chatbot.

Para advogados que acompanham situações semelhantes, os envolvidos não eram usuários típicos, mas pessoas emocionalmente frágeis que precisam de limites claros. Em vez disso, encontraram na IA a validação de seus pensamentos mais destrutivos.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/EyeEm)

Posts relacionados

Relatório mostra avanço no emprego entre mulheres, mas estagnação na renda

Relatório da Igualdade Salarial aponta crescimento da ocupação feminina, mas revela que...

China impede Meta de comprar startup de IA por US$ 2 bilhões

Órgão regulador anunciou veto à venda da empresa em nota sucinta, citando...

Chip suporta calor de 700 °C e pode revolucionar missões espaciais

Dispositivo seguiu funcionando em temperatura próxima à da superfície de Vênus e...

De sensores a ‘pets’ robôs: tecnologias auxiliam idosos que vivem sozinhos

De assistentes virtuais a sistemas que detectam quedas, inovação avança para permitir...