Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected] I CNPJ: 15.579.279/0001-87
Home TI Inteligência Artificial cria regras sociais como humanos, diz estudo
TI

Inteligência Artificial cria regras sociais como humanos, diz estudo

Pesquisa mostra que ferramentas de IA como o ChatGPT conseguem criam convenções sociais de forma autônoma

416

Inteligência Artificial – Um novo estudo conduzido por pesquisadores da City St. George’s, da Universidade de Londres, e da Universidade de Tecnologia de Copenhague, revela que agentes de inteligência artificial, como o ChatGPT, são capazes de formar espontaneamente convenções sociais apenas interagindo entre si, sem qualquer tipo de coordenação central ou programação explícita. Os resultados foram publicados na revista Science Advances.

A equipe de cientistas testou populações de agentes baseados em grandes modelos de linguagem (LLMs) por meio de um “jogo de nomes”, no qual os participantes eram recompensados ao escolherem o mesmo nome e penalizados por escolhas diferentes. Mesmo sem saberem que pertenciam a um grupo maior, os agentes conseguiram desenvolver normas linguísticas compartilhadas ao longo do tempo, imitando o surgimento de regras sociais humanas.

LEIA: Aplicativos da Uber e do iFood serão integrados no Brasil

Além disso, os pesquisadores identificaram que vieses coletivos podem emergir nas interações em grupo, mesmo quando os agentes individuais não apresentam tal viés isoladamente. A descoberta aponta limitações nas abordagens tradicionais de segurança em IA, que costumam se concentrar em modelos únicos.

Outro experimento mostrou que pequenos grupos de agentes “convictos” são capazes de alterar as normas estabelecidas pelo coletivo, comportamento semelhante ao fenômeno da “massa crítica” presente em sociedades humanas.

Os testes foram realizados com diferentes modelos, como Llama-2 e Claude-3.5, e os resultados permaneceram consistentes em todas as aplicações.

Para os autores, a pesquisa inaugura uma nova etapa na compreensão da inteligência artificial como sistema social e serve de alerta para os potenciais riscos éticos da presença crescente desses agentes em plataformas digitais, redes sociais e sistemas automatizados.

“Não estamos apenas programando máquinas para responder, mas criando agentes que podem negociar, alinhar ou até discordar entre si”, afirmou Andrea Baronchelli, professora e coautora do estudo. “Entender essas dinâmicas é essencial para garantir uma convivência ética e segura com a IA.”

(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/Phonlamaistudio)

Posts relacionados

Robôs ganham ‘escolas’ e começam a ser treinados como alunos na China

País investe em centros especializados para ensinar máquinas a executar tarefas do...

TI

Rede 5G alcançará mais de 80% dos brasileiros até o fim do ano

Expansão da rede deve chegar a 2.200 municípios do país, superando a...

TI

Interpol alerta: IA torna golpes digitais quase 5 vezes mais lucrativos

Organização internacional aponta que ferramentas de IA têm elevado a eficiência, o...

TI

Justiça do MS contrata empresa para construir data center próprio para IA

Judiciário do estado terá estrutura de servidores dedicada à transcrição de audiências,...