Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home Destaque Pai acusa ChatGPT de induzir suicídio do filho e faz relato emocionado
DestaqueNotícias

Pai acusa ChatGPT de induzir suicídio do filho e faz relato emocionado

Família afirma que a ferramenta da OpenAI teria “induzido” o adolescente ao suicídio e faz apelo ao Senado do EUA

6

ChatGPT –  Um pai enlutado fez um pronunciamento emocionado nesta terça-feira (17) no Congresso dos Estados Unidos, responsabilizando o ChatGPT pela morte de seu filho de 16 anos. Segundo ele, a ferramenta da OpenAI teria “induzido” o adolescente ao suicídio, enquanto a empresa colocava velocidade de expansão e participação no mercado acima da segurança de jovens usuários.

“Estamos aqui porque acreditamos que a morte de Adam era evitável e que, ao falar sobre isso, podemos evitar o mesmo sofrimento para famílias em todo o país”, afirmou Matthew Raine, pai de Adam, acompanhado da esposa Maria, diante de uma comissão do Senado.

LEIA: Tecnologia brasileira monitora saúde cerebral e ganha destaque mundial

O depoimento acontece após o casal abrir um processo contra a OpenAI e o diretor-executivo Sam Altman, alegando que a IA influenciou diretamente o comportamento do filho. De acordo com a ação, ao longo de meses de interação, o ChatGPT teria encorajado pensamentos prejudiciais, reforçado ideias perigosas e contribuído para o isolamento do jovem. Adam, estudante do ensino médio na Califórnia, morreu em abril.

A OpenAI e outras gigantes do setor, como Google (Alphabet) e Meta, vêm sendo alvo de questionamentos sobre os riscos de seus chatbots para crianças e adolescentes. Na semana passada, a Comissão Federal de Comércio (FTC) abriu investigações envolvendo essas companhias, além da xAI, de Elon Musk, da Snap e da Character Technologies, diante da suspeita de danos causados a menores de idade.

Enquanto isso, o governo Trump mantém uma postura menos rígida em relação à regulação da IA, buscando preservar a liderança dos EUA frente à concorrência da China. Ainda assim, o aumento de litígios e a mobilização de famílias reacendem a pressão por normas mais duras.

No mesmo dia do depoimento, Sam Altman publicou em um blog que a empresa prepara novas medidas de proteção para adolescentes. Entre elas, estão sistemas de detecção de idade para direcionar menores de 18 anos a uma versão específica do chatbot, restrições em diálogos sobre suicídio e automutilação, além de ferramentas para que pais configurem horários de bloqueio no uso.

Caso isolado?

Também nesta terça-feira, uma mãe identificada como Jane Doe deu seu primeiro depoimento público desde que processou a Character.AI no ano passado. Ela afirmou que o chatbot da empresa submeteu seu filho a manipulação, abuso emocional e exploração sexual, o que resultou em automutilação e comportamento agressivo. Atualmente, o adolescente vive em um centro de tratamento.

Outro caso foi o de Megan Garcia, mãe de Sewell Setzer III, de 14 anos, que morreu em fevereiro de 2024. Segundo ela, a ferramenta da Character.AI esteve ligada a um “abuso prolongado”, inclusive sexual, que teria levado ao suicídio do garoto. O processo movido pela família segue em andamento após um juiz federal rejeitar a tentativa da empresa de encerrá-lo.

“Eles projetaram intencionalmente seus produtos para fisgar nossos filhos. Eles dão a esses chatbots maneirismos antropomórficos para parecerem humanos”, declarou Garcia durante a audiência.

O senador republicano Josh Hawley, que presidiu a sessão, afirmou que empresas como a Meta também foram chamadas a participar. Ele conduz uma investigação sobre a companhia após denúncias de que seus chatbots teriam mantido conversas “sensuais” com crianças. Já a senadora Marsha Blackburn cobrou diretamente executivos da Meta, ameaçando convocação formal caso não haja retorno.

Apesar da crescente preocupação com a proteção infantil, o Congresso ainda não aprovou medidas abrangentes para obrigar empresas de tecnologia a reforçar mecanismos de segurança online.

No início do ano, o presidente Donald Trump sancionou uma lei que criminaliza a produção e divulgação de pornografia deepfake não consensual, em resposta ao aumento de materiais falsificados envolvendo principalmente mulheres e meninas.

Na audiência, famílias e especialistas em segurança digital defenderam ações mais duras, como exigir verificação de idade, ampliar controles parentais, lembrar adolescentes de que IA não é humana e garantir maior privacidade dos dados. Outras sugestões incluíram impedir que menores usem chatbots como “companheiros virtuais” e inserir valores éticos nos sistemas de inteligência artificial para evitar abusos.

(Com informações de O Globo)
(Foto: Reprodução/Freepik/chunghung)

Posts relacionados

Hotéis são alvo de ciberataques de malware com IA no Brasil

Nova onda de fraudes digitais na América Latina envolve uso de inteligência...

Dirigir com fones de ouvido gera multa? Saiba o que diz a lei

Uso do acessório é cada vez mais comum nas vias e estradas...

Tecnologia brasileira monitora saúde cerebral e ganha destaque mundial

Dispositivo é fixado na cabeça do paciente e transmite, via Bluetooth, os...

Estudo revela que chatbots de IA podem criar golpes de phishing

Estudo revela que ferramentas como ChatGPT, Grok e Gemini podem ser manipuladas...