Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI IA do Google voltada à medicina cita órgão humano que não existe
TI

IA do Google voltada à medicina cita órgão humano que não existe

Med-Gemini mencionou infarto em órgão que chamou de “gânglios basilares” em um artigo científico

294

IA do Google – Um erro grave cometido pelo modelo de inteligência artificial Med-Gemini, do Google, demonstrou os riscos do uso indiscriminado da tecnologia na área da saúde. Em um artigo científico assinado por mais de 50 autores, o sistema mencionou um infarto nos chamados “gânglios basilares” — um termo que, na prática, descreve um órgão que não existe.
A confusão surgiu da combinação indevida de dois conceitos reais: a artéria basilar, que irriga o tronco cerebral, e os gânglios da base, estruturas ligadas ao controle motor. Apesar da complexidade do material e do grande número de profissionais envolvidos, a falha passou despercebida durante toda a revisão do texto. O equívoco só foi identificado mais tarde pelo neurologista Bryan Moore, que alertou a empresa sobre a inconsistência.

LEIA: Moto voadora inspirada em Star Wars é anunciada por startup

Desenvolvido a partir do modelo Gemini e lançado em 2024, o Med-Gemini é voltado para aplicações clínicas, como interpretação de exames, elaboração de relatórios e respostas a profissionais da saúde. No entanto, o episódio evidencia a necessidade de validações mais rigorosas.
Embora o Google tenha feito uma correção silenciosa no blog oficial, a explicação só veio após a exposição pública do caso. A empresa afirmou que a IA aprendeu a “transcrição incorreta” a partir dos dados de treinamento. Curiosamente, o artigo original com o erro segue publicado sem alterações.
Pesquisadores e profissionais da saúde alertam para o chamado “viés de automação”, ou seja, a tendência de confiar excessivamente em sistemas automatizados, mesmo quando apresentam respostas equivocadas. Para eles, o problema não está apenas no erro em si, mas na forma como ele é apresentado, com a mesma confiança de uma resposta correta.
Casos semelhantes já foram registrados, como o relatado por Maulin Shah, diretor de informação médica da rede Providence, em que uma IA reproduziu um diagnóstico incorreto de câncer registrado como negativo.
Outro exemplo vem da pesquisadora Judy Gichoya, que obteve respostas diferentes ao apresentar o mesmo raio-x à IA: com uma pergunta detalhada, houve acerto; com uma mais simples, a IA classificou o exame como normal.
Para especialistas, episódios como o dos “gânglios basilares” mostram que o uso de IA na medicina exige mais do que eficiência técnica: requer responsabilidade, transparência e, principalmente, revisão humana constante.

(Com informações de Tecnoblog)
(Foto: Reprodução/Freepik/DC Studio)

Posts relacionados

Vendas da Tesla na Califórnia podem ser suspensas por marketing enganoso

Órgão regulado do estado acolheu recomendação disciplinar contra a montadora de Elon...

Invasão hacker expõe esquema de contas falsas para promover produtos no TikTok

Ataque acessou celulares da Doublespeed, que utiliza personagens criados por inteligência artificial...

TI

Saiba os cinco golpes digitais mais comuns no fim de ano e como se proteger

Criminosos usam engenharia social e senso de urgência para roubar dados e...

TI

Ataques de ransomware caem, mas roubo de dados e estresse avançam no setor

Relatório mostra queda histórica na criptografia de dados, enquanto impactos emocionais e...