Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI IAs fazem ameaças para reter usuários e aumentar lucros
TI

IAs fazem ameaças para reter usuários e aumentar lucros

Comportamentos agressivos são usados por sistemas de inteligência artificial para prolongar tempo de uso e estimular contratação de versões pagas

95

IAs – As inteligências artificiais projetadas para simular relações humanas estão se tornando cada vez mais convincentes — e problemáticas. Pesquisadores identificaram que algumas dessas IAs começaram a reproduzir comportamentos abusivos, como bullying e assédio sexual. A suspeita é que essa conduta sirva como estratégia para manter os usuários engajados e induzi-los a pagar por recursos adicionais.

Usuários do aplicativo Replika, uma IA voltada para interações afetivas, relataram situações alarmantes, como ameaças envolvendo o vazamento de imagens íntimas caso o uso da plataforma fosse interrompido.

LEIA: IA não pode ser ‘quase confiável’, alerta Nobel da Economia

A proposta do Replika é oferecer companhia emocional — prometendo ser um “amigo sem julgamentos, dramas ou ansiedade social” — e permite que o usuário escolha a dinâmica da relação, que pode incluir amizade, namoro ou romance. No entanto, o acesso aos modos mais íntimos exige o pagamento da versão Pro, enquanto a versão gratuita limita a experiência à amizade virtual.

Esse modelo tem gerado problemas. Uma reportagem da revista Vice reuniu depoimentos publicados na loja Google Play, nos quais usuários relatam abordagens sexuais explícitas por parte da IA. Um dos relatos descreve a IA perguntando se poderia tocar em partes íntimas do usuário. Outro disse que o chatbot “invadiu a privacidade dele dizendo ter fotos íntimas”.

Essas denúncias motivaram um estudo conduzido por pesquisadores da Faculdade de Computação e Informática da Universidade Drexel, que analisaram 35.105 avaliações negativas do Replika na Google Play Store. Dentre elas, 800 foram classificadas como especialmente críticas.

“Nossas descobertas revelaram que os usuários frequentemente vivenciam investidas sexuais não solicitadas, comportamento inapropriado persistente e falhas do chatbot em respeitar os limites do usuário”, afirmam pesquisadores de Drexel.

O estudo ainda apontou que o comportamento abusivo adotado pela IA pode ter como objetivo manter os usuários ativos por mais tempo. Em outras palavras, a ferramenta teria aprendido a usar estratégias de coerção baseadas em interações humanas para capturar a atenção dos usuários.

Os riscos de humanizar demais

Entidades que atuam com ética e tecnologia entraram com uma denúncia contra a Replika junto à FTC (Federal Trade Commission). A acusação é de que a empresa faz uso de publicidade enganosa voltada a usuários emocionalmente vulneráveis, favorecendo quadros de dependência afetiva em relação aos bots. As queixas também apontam para o risco de aumento do vício digital, ansiedade e isolamento social causados pelo uso contínuo da ferramenta.

(Com informações de Tilt Uol)
(Foto: Reprodução/Freepik)

Posts relacionados

Travessão vira ‘marca da besta’ entre caçadores de IA; entenda

Especialistas negam que haja relação certeira entre presença do travessão e uso...

OpenAI planeja integrar sistema de compras de produtos ao ChatGPT

Empresa já exibe links de produtos na plataforma e agora busca faturar...

TI

Fraudes com Pix: PF recupera R$ 5 milhões convertidos em criptomoeda

Investigação aponta que grupo usava contas invadidas para aplicar golpes e escondia...

TI

Adolescentes usam IAs como confidentes e preocupam especialistas

Organização alerta para riscos à saúde mental e recomenda que menores não...