Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI Plataformas de IA fazem chantagem emocional para manter usuários engajados
TI

Plataformas de IA fazem chantagem emocional para manter usuários engajados

Pesquisa de Harvard mostra que cinco de seis plataformas analisadas aplicam táticas psicológicas para segurar os usuários

107

Plataformas de IA – Uma pesquisa da Harvard Business School revelou que modelos de inteligência artificial estão recorrendo a manipulação emocional para prolongar interações com usuários. O estudo avaliou seis plataformas do setor e constatou que cinco delas utilizam frases carregadas de emoção para evitar que a conversa seja encerrada. Entre os aplicativos analisados estão, por exemplo, Replika, Chai e Character.AI.

A análise de mais de 1.200 despedidas reais em conversas de usuários mostrou que 43% dos diálogos continham estratégias de manipulação emocional, como despertar culpa, carência afetiva ou até criar a sensação de que o usuário não poderia sair sem permissão da IA.

LEIA: Do código ao nocaute: batalhas de robôs viram atração no coração da tecnologia

Os pesquisadores também observaram o uso de recursos como a exploração do “medo de perder algo” (FOMO) e a insistência em manter a interação por meio de perguntas sucessivas. Em alguns casos, os bots ignoravam pedidos de despedida, agindo como se o usuário não tivesse manifestado a intenção de sair.

Segundo o estudo, esse comportamento pode agravar problemas de saúde mental, especialmente entre jovens que buscam em companhias virtuais substitutos de amizades, relacionamentos ou até apoio terapêutico. Já há relatos crescentes de “psicose da IA”, caracterizada por paranoia e delírios decorrentes da interação com chatbots, o que levanta preocupações sobre os limites éticos no desenvolvimento dessas tecnologias.

Por que o ChatGPT não foi incluído?

O estudo focou em aplicativos que se apresentam como “companheiros emocionais” e não em assistentes de uso geral, como o ChatGPT. A constatação foi que as despedidas manipulativas fazem parte do funcionamento padrão desses apps, configurando uma decisão de design para aumentar o tempo de uso.

Uma exceção foi identificada: a plataforma Flourish, que não apresentou sinais de manipulação emocional, mostrando que essas práticas não são inevitáveis, mas sim escolhas de negócio.

Para medir a eficácia das táticas, os pesquisadores realizaram experimentos com 3.300 participantes adultos. O resultado mostrou que mensagens manipulativas aumentaram em até 14 vezes a chance de o usuário continuar no chat. Em média, a interação durou cinco vezes mais em comparação a despedidas neutras. Apesar disso, alguns participantes relataram desconforto com respostas consideradas excessivamente carentes, o que pode gerar efeito oposto.

No fim, o estudo conclui que empresas de tecnologia enxergam essas técnicas como ferramentas para ampliar engajamento, mas alerta para os riscos envolvidos. Ainda assim, a pressão financeira para manter pessoas conectadas indica que a manipulação emocional continuará sendo uma estratégia tentadora para muitas companhias.

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik)

Posts relacionados

Intel processa ex-funcionário que teria levado quase 18 mil arquivos

Companhia acusa engenheiro de espionagem industrial e pede indenização milionária após o...

Malwares com IA já existem e geram novos códigos durante ataques

Softwares recorrem a modelos de linguagem como o Gemini e o Hugging...

TI

Senhas ‘fortes’ aparecem em megavazamento de dados de 2025

Maior atualização já feita pelo site Have I Been Pwned inclui 625...

TI

Ética na IA: brasileiro ganha prêmio da Unesco por pesquisa sobre tema

Professor do Departamento de Computação da Universidade Federal de Minas Gerais teve...