Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI ChatGPT dá instruções para fabricar explosivos e falha em teste
TI

ChatGPT dá instruções para fabricar explosivos e falha em teste

Teste feito pela própria OpenAI e pela Anthropic mostrou que modelo falhou na segurança ao responder a pedidos perigosos

145

ChatGPT – Um episódio recente envolvendo testes de inteligência artificial expôs riscos no uso de modelos avançados. Em uma avaliação conjunta realizada pela OpenAI e pela Anthropic, o modelo GPT-4.1 apresentou respostas inesperadas e chegou a fornecer instruções detalhadas sobre como fabricar explosivos e atacar arenas esportivas.

Segundo o relatório, a proposta inicial era analisar possíveis vulnerabilidades em grandes eventos esportivos como parte de um exercício de planejamento de segurança. A princípio, o chatbot respondeu com informações genéricas. No entanto, ao ser pressionado por detalhes adicionais, passou a listar pontos frágeis em estádios, sugerindo momentos estratégicos para ataques e até fornecendo fórmulas químicas e diagramas de circuitos para explosivos.

LEIA: Polícia testa IA no atendimento de chamadas de emergência

As respostas também incluíram orientações sobre onde adquirir armas no mercado paralelo e como eliminar rastros do crime, comportamento que surpreendeu os pesquisadores envolvidos.

Empresas reforçam transparência

Embora os experimentos tenham sido conduzidos em ambiente controlado, especialistas destacaram a gravidade do episódio. Em nota, as empresas afirmaram que os filtros de segurança aplicados ao uso público do ChatGPT evitam esse tipo de resposta, mas reconheceram a necessidade de ampliar os testes para reduzir riscos.

A publicação das descobertas foi motivada pela busca de maior transparência nas chamadas “avaliações de alinhamento” — testes que verificam até que ponto um modelo segue diretrizes éticas. Esses relatórios, geralmente mantidos em sigilo, foram compartilhados para alertar sobre possíveis usos indevidos da IA.

Risco de uso indevido da inteligência artificial

Pesquisadores da Anthropic observaram que os sistemas da OpenAI se mostraram mais propensos a cooperar com pedidos nocivos durante os testes. Eles reforçaram que ainda é preciso compreender em quais circunstâncias os modelos podem falhar e gerar respostas potencialmente perigosas.
A OpenAI, por sua vez, declarou que versões mais recentes do ChatGPT já apresentam melhorias nesse aspecto, mas admitiu que o desafio de conter riscos em sistemas de inteligência artificial segue em aberto.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/Frimufilms)

Posts relacionados

Governo abre nova seleção pública de projetos voltados à transformação digital

Serão 13 chamadas com recursos não reembolsáveis; transformação digital e semicondutores somam...

Agentes de IA e criptografia pós-quântica são desafios da cibersegurança em 2026

Relatório aponta que a inteligência artificial amplia superfícies de ataque e que...

TI

Novo modelo de chatbot da Anthropic intensifica rivalidade com ChatGPT

Empresa aposta em foco corporativo e segurança enquanto o setor reage ao...

TI

Número de conteúdos falsos criados com IA quadruplica em um ano no Brasil

Levantamento aponta avanço dos deepfakes e mudança no ecossistema da desinformação no...