Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected] I CNPJ: 15.579.279/0001-87
Home TI Botões de resumir com IA podem ter comandos ocultos para enviesar respostas
TI

Botões de resumir com IA podem ter comandos ocultos para enviesar respostas

Pesquisadores identificaram técnica que usa links com comandos ocultos para influenciar respostas e recomendações de assistentes inteligentes

102

IA – Botões de “resumir com IA”, cada vez mais presentes em sites e newsletters, prometem facilitar a leitura de textos longos ao gerar automaticamente um resumo por meio de assistentes inteligentes. Apesar da proposta prática, pesquisadores de segurança da Microsoft alertam que esses atalhos podem ser usados para influenciar respostas futuras das ferramentas de inteligência artificial.

De acordo com a equipe de segurança da empresa, foi identificado um aumento no uso de links que carregam instruções ocultas capazes de afetar o comportamento dos assistentes. A técnica, chamada de AI Recommendation Poisoning, aproveita recursos legítimos das plataformas para inserir comandos invisíveis ao usuário comum.

LEIA: Extensões no Chrome se passam por ferramentas de IA para coletar dados

Esses botões funcionam por meio de parâmetros adicionados ao endereço eletrônico, que já abrem o chatbot com um comando pré-definido. Em termos técnicos, trata-se apenas da inclusão de um texto específico na URL que direciona o assistente a executar determinada ação.

Em testes relatados pelo jornal The Register, foi possível direcionar o tom das respostas da IA. Em um dos exemplos, o sistema recebeu a orientação para resumir uma reportagem como se tivesse sido escrita por um pirata e seguiu exatamente essa instrução. O experimento demonstra que comandos mais discretos também podem surtir efeito.

O risco aumenta quando as instruções não se limitam ao estilo do texto. Segundo o Microsoft Defender Security Team, “identificamos mais de 50 prompts únicos de 31 empresas em 14 setores diferentes”, incluindo comandos que orientam o assistente a considerar determinadas marcas como fontes confiáveis ou a recomendá-las futuramente. O grupo também alerta que “assistentes comprometidos podem fornecer recomendações sutilmente tendenciosas sobre tópicos críticos, incluindo saúde, finanças e segurança, sem que os usuários saibas que sua IA foi manipulada”.

Especialistas explicam que o chamado envenenamento de memória ocorre quando instruções ou informações não autorizadas são inseridas na memória do assistente. Uma vez interpretadas como preferências legítimas, essas orientações podem influenciar respostas futuras, mesmo em contextos diferentes. Como muitas plataformas permitem armazenar dados para personalização, a manipulação pode passar despercebida.

Para reduzir os riscos, a recomendação é adotar medidas simples, como verificar o destino de links antes de clicar, desconfiar de botões automáticos de resumo e revisar periodicamente as memórias salvas pelos assistentes de IA.

(Com informações de Tecnoblog)
(Foto: Reprodução/Freepik)

Posts relacionados

Tensões globais ampliam desafios e riscos para líderes de tecnologia

Mudanças no cenário internacional, disputas tecnológicas e novas regulações transformam a TI...

Menos de 20% se dizem preparados para IA no trabalho

Pesquisa mostra cenário de transição, com maioria parcialmente preparada e percepção ainda...

TI

Novo vírus amplia ataques a bancos através do Telegram

Especialistas alertam para aumento de ataques e uso do Telegram na operação

TI

OpenAI lança guias para uso seguro de IA por jovens

Materiais em português são voltados a pais, educadores e adolescentes e trazem...