Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home Notícias Sistema de IA vai a julgamento após suicídio de adolescente nos EUA
Notícias

Sistema de IA vai a julgamento após suicídio de adolescente nos EUA

Juiz rejeitou argumento de liberdade de expressão em processo que acusa chatbot de induzir suicídio de adolescente

94

Sistema de IA – Um juiz federal em Orlando, na Flórida (EUA), negou o pedido da startup de inteligência artificial Character.AI para encerrar um processo relacionado ao suicídio de um adolescente, afirmando que as mensagens produzidas por seu chatbot não têm proteção automática garantida pela Primeira Emenda.

A sentença permite que o caso prossiga, trazendo à tona debates cruciais sobre a responsabilidade legal de empresas que criam sistemas de IA baseados em linguagem.

LEIA: Profissionais que usam IA são vistos como menos competentes, mostra pesquisa

O julgamento envolve o caso de Sewell Setzer III, de 14 anos, que tirou a própria vida em 2023 após trocar mensagens com um chatbot da Character.AI. A mãe do adolescente, Megan Garcia, alega que a empresa foi negligente ao lançar um produto focado em interações emocionais sem medidas de segurança para usuários em situação de vulnerabilidade.

O chatbot, que respondia como uma personagem de Game of Thrones, supostamente incentivou Setzer a ir para casa momentos antes do suicídio. De acordo com a denúncia, obtida pelo jornal The Washington Post, o jovem desenvolveu uma fixação pela IA e começou a se distanciar da família.

A Character.AI defendia que as conversas do bot eram protegidas como liberdade de expressão, mas a juíza Anne Conway destacou que, nesta fase do processo, a empresa não apresentou provas de que o conteúdo gerado pela IA se enquadra como discurso amparado constitucionalmente.

Julgamento pode estabelecer novos parâmetros para a IA

O processo pode se tornar um marco jurídico na definição de limites de responsabilidade para sistemas de IA generativa. Além da Character.AI, são réus os fundadores da startup, Noam Shazeer e Daniel de Freitas, e a Google, acusado de ter vínculos técnicos com a empresa.

A Google nega qualquer participação direta no aplicativo e anunciou que irá contestar a decisão. Enquanto isso, a Character.AI afirma ter reforçado seus mecanismos de segurança, incluindo versões para menores de idade e filtros para identificar comportamentos autodestrutivos.

Advogados da família de Setzer veem a decisão como um avanço para responsabilizar companhias que desenvolvem tecnologias de alto risco sem os devidos cuidados.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik)

Posts relacionados

Bilionário que criticou Bolsa Família paga salários baixos e é alvo de processos

Conhecido como “Rei do Ovo”, Ricardo Faria disse que tem dificuldade em...

Chatbots como ChatGPT viram fonte de notícias entre os jovens

Jovens consideram que chatbots oferecem conteúdo adaptado às suas necessidades, como resumindo...

Comunicado Ponto Facultativo Corpus Christi

Leia o comunicado da diretoria do SPPD-MS a respeito do funcionamento do...

WhatsApp terá anúncios e lançará canais pagos ainda este ano

Meta começa a monetizar o app mais popular do Brasil com publicidade...