Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home Notícias Sistema de IA vai a julgamento após suicídio de adolescente nos EUA
Notícias

Sistema de IA vai a julgamento após suicídio de adolescente nos EUA

Juiz rejeitou argumento de liberdade de expressão em processo que acusa chatbot de induzir suicídio de adolescente

83

Sistema de IA – Um juiz federal em Orlando, na Flórida (EUA), negou o pedido da startup de inteligência artificial Character.AI para encerrar um processo relacionado ao suicídio de um adolescente, afirmando que as mensagens produzidas por seu chatbot não têm proteção automática garantida pela Primeira Emenda.

A sentença permite que o caso prossiga, trazendo à tona debates cruciais sobre a responsabilidade legal de empresas que criam sistemas de IA baseados em linguagem.

LEIA: Profissionais que usam IA são vistos como menos competentes, mostra pesquisa

O julgamento envolve o caso de Sewell Setzer III, de 14 anos, que tirou a própria vida em 2023 após trocar mensagens com um chatbot da Character.AI. A mãe do adolescente, Megan Garcia, alega que a empresa foi negligente ao lançar um produto focado em interações emocionais sem medidas de segurança para usuários em situação de vulnerabilidade.

O chatbot, que respondia como uma personagem de Game of Thrones, supostamente incentivou Setzer a ir para casa momentos antes do suicídio. De acordo com a denúncia, obtida pelo jornal The Washington Post, o jovem desenvolveu uma fixação pela IA e começou a se distanciar da família.

A Character.AI defendia que as conversas do bot eram protegidas como liberdade de expressão, mas a juíza Anne Conway destacou que, nesta fase do processo, a empresa não apresentou provas de que o conteúdo gerado pela IA se enquadra como discurso amparado constitucionalmente.

Julgamento pode estabelecer novos parâmetros para a IA

O processo pode se tornar um marco jurídico na definição de limites de responsabilidade para sistemas de IA generativa. Além da Character.AI, são réus os fundadores da startup, Noam Shazeer e Daniel de Freitas, e a Google, acusado de ter vínculos técnicos com a empresa.

A Google nega qualquer participação direta no aplicativo e anunciou que irá contestar a decisão. Enquanto isso, a Character.AI afirma ter reforçado seus mecanismos de segurança, incluindo versões para menores de idade e filtros para identificar comportamentos autodestrutivos.

Advogados da família de Setzer veem a decisão como um avanço para responsabilizar companhias que desenvolvem tecnologias de alto risco sem os devidos cuidados.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik)

Posts relacionados

Proteja sua conta gov.br contra invasões e evite golpes; saiba como

Contas gov.br têm sido alvo preferencial de cibercriminosos por concentrar informações sensíveis...

Pix automático pode beneficiar 60 milhões de brasileiros sem cartão crédito

Para evitar débitos não autorizados, instituições financeiras precisarão pedir aval prévio dos...

Estudo revela espionagem da Meta em celulares de milhões de pessoas

Empresa coletava dados mesmo com uso de guia anônima e VPN; prática...

Volta da homologação sindical em rescisões é pauta no Congresso

Iniciativa busca reduzir sobrecarga na Justiça do Trabalho através da mediação prévia...