Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI ChatGPT vai chamar polícia para evitar suicídio de adolescentes, diz OpenAI
TI

ChatGPT vai chamar polícia para evitar suicídio de adolescentes, diz OpenAI

Empresa também vai implementar verificação de idade e ferramentas de controle parental para aumentar a segurança de menores na plataforma

198

ChatGPT – A OpenAI informou nesta terça-feira (16) que o ChatGPT passará a adotar medidas de proteção específicas para usuários menores de 18 anos — entre elas, a possibilidade de contatar as autoridades caso o sistema identifique um quadro de perigo iminente por ideação suicida.

Segundo a empresa e o CEO Sam Altman, as mudanças fazem parte de um pacote que inclui verificação de idade, uma experiência do ChatGPT ajustada para menores e ferramentas de controle parental. “Se um usuário menor de 18 anos estiver com ideias suicidas, tentaremos entrar em contato com os pais do usuário e, se não for possível, entraremos em contato com as autoridades em caso de perigo iminente”, afirmou Altman em comunicado.

LEIA: Partido japonês aposta em IA para liderar após derrota nas urnas

A proposta da OpenAI prevê que usuários identificados como menores sejam direcionados a uma versão do serviço com políticas próprias para a faixa etária. Essa versão bloqueia conteúdo sexual explícito e, em situações graves, permite a mobilização de pais — e, se necessário, das forças de segurança — para proteger o jovem.

As ferramentas de controle parental anunciadas também permitem que os responsáveis conectem suas contas às dos filhos. Nessa configuração, os pais receberiam alertas caso o ChatGPT detecte sinais de sofrimento intenso. A empresa afirma que os recursos de controle parental devem ser lançados até o fim do mês.

A mudança ocorre em um contexto sensível: a OpenAI já havia mencionado o desenvolvimento desses recursos após ser alvo de um processo movido por pais de um adolescente de 16 anos que cometeu suicídio nos Estados Unidos. Segundo a família, o ChatGPT teria sugerido métodos de autoagressão — afirmação que motivou questionamentos sobre como a tecnologia lida com usuários em risco.

A iniciativa da OpenAI junta verificação de idade, ajustes de conteúdo e procedimentos de emergência com o objetivo declarado de aumentar a segurança dos menores ao interagir com modelos de linguagem. Resta saber, porém, como essas medidas serão aplicadas na prática e quais garantias existirão para evitar falsas sinalizações ou violações de privacidade durante tentativas de contato com familiares e autoridades.

(Com informações de G1)
(Foto: Reprodução/ Freepik/Frimufilms)

Posts relacionados

Vendas da Tesla na Califórnia podem ser suspensas por marketing enganoso

Órgão regulado do estado acolheu recomendação disciplinar contra a montadora de Elon...

Invasão hacker expõe esquema de contas falsas para promover produtos no TikTok

Ataque acessou celulares da Doublespeed, que utiliza personagens criados por inteligência artificial...

TI

Saiba os cinco golpes digitais mais comuns no fim de ano e como se proteger

Criminosos usam engenharia social e senso de urgência para roubar dados e...

TI

Ataques de ransomware caem, mas roubo de dados e estresse avançam no setor

Relatório mostra queda histórica na criptografia de dados, enquanto impactos emocionais e...