Horário de Atendimento: Das 9h as 15h | Sede: (67) 3321-2836 | [email protected] I CNPJ: 15.579.279/0001-87
Home Notícias Idoso alucina e vai parar no hospital após seguir orientação do ChatGPT
Notícias

Idoso alucina e vai parar no hospital após seguir orientação do ChatGPT

Especialistas alertam inteligência artificial pode fornecer informações incorretas e descontextualizadas, especialmente na área da saúde

417

ChatGPT – Um homem de 60 anos foi internado com sintomas psiquiátricos graves e problemas físicos após trocar o sal de cozinha pelo brometo de sódio, seguindo uma sugestão obtida por meio do ChatGPT, ferramenta de inteligência artificial da OpenAI. O caso, ocorrido nos Estados Unidos e divulgado em estudo publicado no dia 5 de agosto, chamou atenção para os riscos de informações médicas imprecisas geradas por IA.

O paciente, com formação em nutrição, consultou o ChatGPT após se preocupar com os efeitos do cloreto de sódio à saúde. A IA indicou o brometo de sódio como alternativa, substância que ele adquiriu pela internet e passou a usar no lugar do sal comum por cerca de três meses.

LEIA: China abre o primeiro centro comercial do mundo dedicado a robôs

Com a ingestão do brometo, composto químico usado em processos industriais, o homem desenvolveu bromismo — uma intoxicação causada pelo acúmulo da substância no organismo. Entre os sintomas estavam alucinações visuais e auditivas, paranoia, fadiga, insônia, descoordenação motora e sede excessiva.

Durante a internação, o paciente manifestava desconfiança e recusava líquidos, apesar da sede intensa. Após agravar o quadro mental, foi transferido para uma unidade psiquiátrica, onde recebeu tratamento com antipsicóticos e reposição de fluidos e eletrólitos, evoluindo para melhora clínica.

Os autores do estudo alertam que, apesar do potencial da inteligência artificial como ferramenta educativa, ela pode fornecer informações incorretas e descontextualizadas, especialmente na área da saúde. Ressaltam que é pouco provável que um profissional especializado recomendasse o uso de brometo de sódio para substituir o sal comum.

A OpenAI destaca em seus termos que o ChatGPT não deve ser usado para diagnóstico ou tratamento de doenças, reforçando a importância da consulta a especialistas antes de adotar mudanças significativas na alimentação ou saúde.

(Com informações de O Tempo)
(Foto: Reprodução/Freepik/Frimufilms)

Posts relacionados

Transformers na vida real: empresa cria robô gigante pilotável

GD01, desenvolvido pela Unitree Robotics, combina modos bípede e quadrúpede e lembra...

Meta pode enfrentar multa bilionária em investigação sobre ‘dark patterns’

Apuração avalia se empresa esconde opções de configuração e direciona usuários para...

Astronautas das missões Apollo relatam luzes e fragmentos misteriosos na Lua

EUA divulgaram cerca de 170 documentos sobre Fenômenos Anômalos Não Identificados, incluindo...

Juiz multa advogadas por comando para IA escondido em petição

Juiz classificou prática como ataque à integridade da atividade jurisdicional e à...