Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected]
Home TI ChatGPT erra em diagnósticos e pode oferecer riscos, alertam especialista
TI

ChatGPT erra em diagnósticos e pode oferecer riscos, alertam especialista

Apesar de prometer avanços e acertar em casos simples, ChatGPT erra em diagnósticos e pode custar a vida dos usuários

124

ChatGPT – Na Grécia Antiga, quem buscava respostas sobre o próprio destino recorria ao Oráculo de Delfos, consultando a sacerdotisa que interpretava os sinais dos deuses. Muitas dessas perguntas envolviam questões de saúde.

Foi também na Grécia que viveu Hipócrates, considerado o pai da medicina moderna. Desde então, mais de dois milênios se passaram, marcados por avanços médicos extraordinários, e ir ao médico se tornou parte da vida cotidiana.

LEIA: Câmara dá mais um passo para isentar IR até R$ 5 mil

Hoje, a tecnologia permite evitar tanto viagens a Delfos quanto idas ao consultório, oferecendo a alternativa digital de consultar o “Dr. Google”. Mas essa prática, que estimula o autodiagnóstico, frequentemente leva a erros – e, para o Dr. Google, quase tudo termina em câncer.

Esse problema é agravado pela propagação de desinformação na área da saúde. Um em cada quatro espanhóis acredita que a internet está repleta de fake news médicas, o que levou instituições profissionais a promover campanhas sobre o uso consciente das informações online.

Com o surgimento de ferramentas de inteligência artificial (IA), como o ChatGPT, o Dr. Google ganhou concorrência. Há quem enxergue nessas tecnologias uma revolução na medicina.

Entretanto, o “Dr. ChatGPT” também tem falhas sérias: enquanto pode acertar em diagnósticos comuns, pode errar grosseiramente em outros. E, na medicina, um erro pode ser fatal – como no caso de um paciente que, após confiar na resposta do ChatGPT, adiou o atendimento de um AVC, colocando sua vida em risco.

Será que a IA pode substituir o trabalho médico? Para Shunsuke Koga, professor da Universidade da Pensilvânia, a resposta é negativa.

“Embora tenha potencial para apoiar os profissionais de saúde e melhorar os processos de diagnóstico, também existe um risco significativo de desinformação e atrasos no diagnóstico quando essas ferramentas são usadas de forma inadequada por pessoas sem experiência médica”, alerta.

Ou seja, o uso da IA pode ajudar, mas jamais deve tomar o lugar do especialista humano.

Parece mais inteligente do que é

Os avanços em IA costumam ser divulgados destacando os êxitos – e ignorando as limitações. Entre os sistemas mais populares, os chats como o ChatGPT têm um comportamento enganoso: exibem confiança mesmo quando estão errados, e raramente admitem incertezas.

Isso acontece porque esses sistemas são treinados para gerar respostas bem formuladas, mas não pensam como seres humanos.

Se questionado sobre quanto é “um mais um”, o ChatGPT tende a responder “dois” – não porque compreende a operação, mas porque aprendeu que essa é a resposta esperada com base nos dados com os quais foi treinado. É um exemplo semelhante ao “quarto chinês”, experimento mental de John Searle, segundo o qual manipular símbolos corretamente não significa entender o que se está fazendo.

Além disso, por responder com fluência e segurança, o ChatGPT pode passar uma imagem de inteligência acima do que realmente possui. Isso reforça a ilusão de que se trata de uma IA “geral”, quando na verdade ainda está longe disso.

E aí reside o perigo: imaginar que ela seja capaz de tomar decisões complexas – como um diagnóstico médico – é superestimar suas habilidades.

Quem responde pelos erros da IA?

O uso da IA na medicina exige atenção redobrada por vários motivos. O primeiro é o risco de viés: como esses sistemas aprendem a partir de dados, qualquer preconceito nos dados de treinamento tende a ser reproduzido pela IA.

Mas o aspecto mais delicado é a responsabilidade. Quando uma IA fornece um diagnóstico incorreto, quem assume as consequências?

Se o ChatGPT disser que você não precisa de visto para uma viagem, isso pode gerar transtornos. Mas um erro sobre sua saúde pode custar sua vida.

Diante disso, a recomendação de especialistas é clara: o ideal é aliar a IA ao conhecimento médico, estratégia que já se mostrou eficaz em diversas situações reais. A tecnologia deve ser um complemento, e não um substituto.

O fator humano

Talvez a questão central não seja apenas o uso do ChatGPT para questões de saúde, mas o declínio do pensamento crítico. A IA, quando bem utilizada, é uma ferramenta poderosa, com aplicações valiosas – como resumir, traduzir ou gerar textos.

No entanto, ainda é indispensável revisar cuidadosamente os conteúdos gerados por essas ferramentas, corrigindo falhas com base no bom senso e no conhecimento especializado.

Estudos já indicam que o uso excessivo da IA pode afetar negativamente a capacidade humana de raciocínio crítico.

Por isso, é essencial treinar nossa habilidade de analisar as respostas que essas ferramentas oferecem. Essa formação exige esforço, mas é fundamental em um cenário onde chats conversacionais estão em toda parte. Na área da saúde, isso se traduz na importância do juízo clínico.

Ainda que a agilidade do ChatGPT possa atrair quem busca respostas rápidas, o julgamento de um médico qualificado continua, até hoje, sendo insubstituível. Em resumo: você pode até deixar de ir a Delfos — mas jamais de procurar um profissional de saúde.

(Com informações de O Globo)
(Foto: Reprodução/Freepik/pixaflow)

Posts relacionados

Hackers exploram servidores Windows para manipular buscas no Google

GhostRedirector manipula resultados de pesquisa e mantém acesso mesmo após ser removido...

Uso excessivo de redes sociais afetam corpo e mente

Exposição prolongada pode causar problemas de visão, dores musculares, ansiedade, depressão e...

TI

Número crescente de casos de ‘psicose de IA’ acende alerta em empresas

Relatos de pessoas que desenvolveram alucinações com chatbots são preocupação crescente até...

TI

Profissionais de TI estão insatisfeitos com salário e buscam oportunidades

Levantamento global mostra que mais da metade dos trabalhadores em tecnologia está...