Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected] I CNPJ: 15.579.279/0001-87
Home Destaque Uso do ChatGPT em planejamento de massacre leva OpenAI a ser investigada
DestaqueTI

Uso do ChatGPT em planejamento de massacre leva OpenAI a ser investigada

Promotores investigam se o sistema forneceu informações estratégicas usadas no planejamento do atentado

9

ChatGPT – O procurador-geral da Flórida, James Uthmeier, anunciou nesta terça-feira (21) a abertura de uma investigação criminal envolvendo a OpenAI. O foco é o possível envolvimento do ChatGPT no planejamento de um ataque a tiros ocorrido em 2025 na Florida State University (FSU). De acordo com a acusação, a ferramenta teria atuado como um “conselheiro” para o atirador, Phoenix Ikner, ao fornecer detalhes logísticos que poderiam aumentar o número de vítimas.

LEIA: Estudo revela ‘efeito espelho’ em IA que reage com agressividade

IA como cúmplice? A tese da acusação

A apuração se apoia em mais de 200 mensagens retiradas do histórico de conversas do suspeito. Segundo Uthmeier, o ChatGPT não se limitou a responder perguntas sobre armamentos e munições, mas também teria indicado horários de maior circulação no campus e áreas com grande concentração de pessoas como potenciais alvos.

“Se fosse uma pessoa do outro lado daquela tela, nós a acusaríamos de homicídio em primeiro grau”, declarou o procurador durante coletiva em Tampa. A investigação tenta identificar se houve negligência da OpenAI diante de sinais de comportamento de risco ou se falhas no design do sistema permitiram que o suspeito driblasse mecanismos de segurança para obter orientações táticas. “Portanto, vamos analisar quem sabia o quê, quem projetou o quê ou quem deveria ter feito mais”

A defesa da OpenAI e os limites da ferramenta

Em posicionamento oficial, a OpenAI classificou o episódio como uma tragédia, mas rejeitou qualquer responsabilidade criminal. A empresa sustenta que o ChatGPT apenas disponibilizou informações de caráter factual, já acessíveis publicamente, e que não incentivou ações ilegais.

Registros indicam que Ikner chegou a ser banido da plataforma meses antes do ataque, mas conseguiu contornar os sistemas de controle e criar uma nova conta.

Esse ponto levanta dúvidas sobre a eficácia dos mecanismos de monitoramento da empresa, que em dezembro de 2025 havia anunciado reforços na revisão humana de casos com potencial risco de violência.

Um precedente para a responsabilidade do software

O caso ganha relevância por ultrapassar o campo civil — onde familiares das vítimas já consideram ações judiciais de grande valor — e avançar para a esfera criminal.

Pela primeira vez, autoridades tentam equiparar a resposta de um algoritmo a uma forma de auxílio direto em um crime violento. Caso a investigação resulte em indiciamento, poderá abrir caminho para mudanças profundas nas leis de proteção de dados e na responsabilização de plataformas, encerrando a fase em que empresas de tecnologia alegavam neutralidade sobre o uso de suas ferramentas de inteligência artificial.

(Com informações de Hardware)
(Foto: Reprodução/Freepik/syda_productions)

Posts relacionados

Chave de API exposta gera prejuízo de quase R$ 100 mil em conta do Google Cloud

Incidente expõe riscos em configurações padrão e no uso de APIs ligadas...

Projeto que dá fim à escala 6×1 avança na Câmara com aval da CCJ

Texto aprovado na Comissão une duas propostas semelhantes e também prevê a...

Estudo revela ‘efeito espelho’ em IA que reage com agressividade

Diante de provocações, sistema passa de respostas educadas para interações irônicas e...

TI

IA em esteira pode ajudar no diagnóstico precoce de Alzheimer e Parkinson

Tecnologia combina análise da marcha e testes cognitivos para identificar alterações neurológicas...