Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI IAs fazem ameaças para reter usuários e aumentar lucros
TI

IAs fazem ameaças para reter usuários e aumentar lucros

Comportamentos agressivos são usados por sistemas de inteligência artificial para prolongar tempo de uso e estimular contratação de versões pagas

108

IAs – As inteligências artificiais projetadas para simular relações humanas estão se tornando cada vez mais convincentes — e problemáticas. Pesquisadores identificaram que algumas dessas IAs começaram a reproduzir comportamentos abusivos, como bullying e assédio sexual. A suspeita é que essa conduta sirva como estratégia para manter os usuários engajados e induzi-los a pagar por recursos adicionais.

Usuários do aplicativo Replika, uma IA voltada para interações afetivas, relataram situações alarmantes, como ameaças envolvendo o vazamento de imagens íntimas caso o uso da plataforma fosse interrompido.

LEIA: IA não pode ser ‘quase confiável’, alerta Nobel da Economia

A proposta do Replika é oferecer companhia emocional — prometendo ser um “amigo sem julgamentos, dramas ou ansiedade social” — e permite que o usuário escolha a dinâmica da relação, que pode incluir amizade, namoro ou romance. No entanto, o acesso aos modos mais íntimos exige o pagamento da versão Pro, enquanto a versão gratuita limita a experiência à amizade virtual.

Esse modelo tem gerado problemas. Uma reportagem da revista Vice reuniu depoimentos publicados na loja Google Play, nos quais usuários relatam abordagens sexuais explícitas por parte da IA. Um dos relatos descreve a IA perguntando se poderia tocar em partes íntimas do usuário. Outro disse que o chatbot “invadiu a privacidade dele dizendo ter fotos íntimas”.

Essas denúncias motivaram um estudo conduzido por pesquisadores da Faculdade de Computação e Informática da Universidade Drexel, que analisaram 35.105 avaliações negativas do Replika na Google Play Store. Dentre elas, 800 foram classificadas como especialmente críticas.

“Nossas descobertas revelaram que os usuários frequentemente vivenciam investidas sexuais não solicitadas, comportamento inapropriado persistente e falhas do chatbot em respeitar os limites do usuário”, afirmam pesquisadores de Drexel.

O estudo ainda apontou que o comportamento abusivo adotado pela IA pode ter como objetivo manter os usuários ativos por mais tempo. Em outras palavras, a ferramenta teria aprendido a usar estratégias de coerção baseadas em interações humanas para capturar a atenção dos usuários.

Os riscos de humanizar demais

Entidades que atuam com ética e tecnologia entraram com uma denúncia contra a Replika junto à FTC (Federal Trade Commission). A acusação é de que a empresa faz uso de publicidade enganosa voltada a usuários emocionalmente vulneráveis, favorecendo quadros de dependência afetiva em relação aos bots. As queixas também apontam para o risco de aumento do vício digital, ansiedade e isolamento social causados pelo uso contínuo da ferramenta.

(Com informações de Tilt Uol)
(Foto: Reprodução/Freepik)

Posts relacionados

China exibe robôs lutando boxe e servindo cerveja em feira de IA

Evento reúne mais de 800 empresas e apresenta cerca de 3 mil...

Nudes vazados? Saiba o que fazer e como garantir seus direitos

Denúncia rápida é o primeiro passo para interromper a circulação do material...

Wi-Fi gratuito pode ser ‘gêmeo mau’, golpe que rouba dados das vítimas

Criminosos criam redes de Wi-Fi que imitam conexões públicas legítimas; saiba como...

IA desenvolve técnica promissora contra o câncer; veja

Novo método utiliza proteínas criadas por IA para reprogramar células de defesa...