IA – A rápida expansão das ferramentas de inteligência artificial pode resultar em um episódio de grande impacto capaz de comprometer a confiança pública na tecnologia. O alerta é de Michael Wooldridge, professor da Universidade de Oxford e referência na área, que compara o cenário atual ao desastre do dirigível Hindenburg, ocorrido em 1937.
Segundo o pesquisador, a disputa intensa entre empresas de tecnologia tem acelerado o lançamento de produtos cada vez mais sofisticados, mesmo quando suas limitações ainda não sejam plenamente compreendidas. Para ele, essa combinação de competição comercial e desenvolvimento apressado amplia o risco de falhas com potencial de atingir diferentes setores simultaneamente.
LEIA: Brasil, Índia e França defendem freios éticos e regulação da IA durante cúpula
Em entrevista ao jornal britânico The Guardian, Wooldridge afirmou que o crescimento acelerado de chatbots com mecanismos de segurança facilmente burláveis evidencia a priorização de interesses comerciais em detrimento da confiabilidade. Na avaliação do professor, trata-se de um padrão recorrente: tecnologias promissoras chegam ao público antes de passarem por testes suficientemente rigorosos.
O pesquisador deve aprofundar essas reflexões durante a palestra do prêmio Michael Faraday, promovido pela Royal Society, sob o título “Esta não é a IA que nos foi prometida”.
Risco sistêmico
Ao mencionar o Hindenburg, dirigível alemão que explodiu ao tentar pousar nos Estados Unidos e deixou 36 mortos, Wooldridge destaca o impacto simbólico que um grande acidente pode causar. O episódio praticamente encerrou o interesse mundial por esse tipo de transporte à época. Para ele, algo semelhante poderia ocorrer com a inteligência artificial caso um erro grave se espalhasse por sistemas já integrados a áreas críticas, como finanças e saúde.
Entre os cenários possíveis, o professor cita uma atualização defeituosa em carros autônomos com consequências fatais, um ataque cibernético capaz de interromper operações de companhias aéreas globais ou ainda a quebra de uma grande empresa desencadeada por falhas automatizadas.
Limitações dos modelos
Apesar das críticas, Wooldridge afirma não se opor ao avanço da inteligência artificial. O ponto central, segundo ele, é a diferença entre as expectativas criadas em torno da tecnologia e os resultados efetivamente entregues.
Os atuais modelos de linguagem que sustentam chatbots operam com base em probabilidades, gerando respostas a partir de padrões aprendidos durante o treinamento. Embora sejam eficientes em diversas tarefas, podem apresentar inconsistências em outras. O problema, na visão do pesquisador, é que esses sistemas não reconhecem quando estão errados e tendem a responder com alto grau de confiança, o que pode induzir usuários ao engano.
Como alternativa, Wooldridge menciona representações mais antigas da inteligência artificial na ficção científica, nas quais sistemas admitiam explicitamente quando não possuíam informações suficientes para responder. Modelos que reconheçam suas próprias limitações de forma clara, argumenta, poderiam reduzir a falsa impressão de competência absoluta e diminuir as chances de um eventual “momento Hindenburg” da IA.
(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik)