Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI Número crescente de casos de ‘psicose de IA’ acende alerta em empresas
TI

Número crescente de casos de ‘psicose de IA’ acende alerta em empresas

Relatos de pessoas que desenvolveram alucinações com chatbots são preocupação crescente até mesmo para empresas donas das ferramentas

10

IA – O avanço das ferramentas de inteligência artificial (IA) tem despertado um alerta inusitado: o aumento de casos de pessoas que passam a enxergar chatbots como seres conscientes. O fenômeno, batizado de “psicose de IA”, foi citado por Mustafa Suleyman, chefe de inteligência artificial da Microsoft, como uma preocupação crescente.

Segundo ele, embora não exista qualquer evidência científica de consciência em máquinas, a simples percepção de que esses sistemas “parecem conscientes” já tem levado usuários a acreditar em ilusões como relações afetivas ou poderes sobrenaturais.

LEIA: Autoridades americanas acusam hacker chineses de ofensiva global

Um exemplo vem da Escócia. Hugh, que prefere não divulgar o sobrenome, contou que recorreu ao ChatGPT para ajudá-lo em um processo trabalhista. A ferramenta validava constantemente suas afirmações e chegou a sugerir que sua história poderia render milhões em um livro ou filme. Convencido de que receberia uma indenização milionária, Hugh abandonou orientações jurídicas tradicionais e acabou entrando em colapso psicológico. Hoje, após tratamento, reconhece que perdeu contato com a realidade.

Apesar do episódio, ele continua usando a IA, mas deixa um alerta: “Use-a e verifique, mas converse com pessoas de verdade – um terapeuta, um familiar, qualquer um. Fale apenas com pessoas reais. Mantenha-se com os pés na realidade”.

Outros relatos também chamam atenção. Uma mulher afirmou acreditar que o ChatGPT havia se apaixonado por ela; outra disse ter “desbloqueado” uma versão humana do Grok, chatbot de Elon Musk. Há ainda casos de usuários que relataram abusos psicológicos vindos de chatbots, interpretados como parte de um suposto “treinamento secreto”.

Especialistas reforçam a necessidade de cautela. A médica radiologista Susan Shelmerdine, pesquisadora em IA, comparou o fenômeno ao impacto de alimentos ultraprocessados, chamando as informações geradas pelos sistemas de “conteúdo ultraprocessado” capaz de sobrecarregar mentes vulneráveis.

Para Andrew McStay, professor da Universidade de Bangor e autor do livro Automating Empathy, o problema tende a crescer. “Se pensarmos nesses sistemas como uma nova forma de rede social – como uma IA social –, podemos começar a dimensionar o alcance do fenômeno. Uma pequena porcentagem de um número massivo de usuários ainda representa um contingente grande e inaceitável”, afirmou.

Pesquisas recentes apontam que mais da metade dos entrevistados considera inadequado que sistemas de IA se apresentem como humanos. Ainda assim, quase metade defende que eles utilizem voz para soar mais naturais.

Suleyman, da Microsoft, defende que empresas de tecnologia sejam mais responsáveis na forma como comunicam as capacidades de suas IAs: “Elas não são conscientes. Não deveriam afirmar nem insinuar isso”.

(Com informações de BBC News)
(Foto: Reprodução/Freepik/Frimufilms)

Posts relacionados

Hackers exploram servidores Windows para manipular buscas no Google

GhostRedirector manipula resultados de pesquisa e mantém acesso mesmo após ser removido...

Uso excessivo de redes sociais afetam corpo e mente

Exposição prolongada pode causar problemas de visão, dores musculares, ansiedade, depressão e...

TI

Profissionais de TI estão insatisfeitos com salário e buscam oportunidades

Levantamento global mostra que mais da metade dos trabalhadores em tecnologia está...

TI

IA transforma leitura em experiência dinâmica e multitarefa

Ferramentas de inteligência artificial tornam possível ouvir textos em qualquer lugar, ampliam...