研究显示,ChatGPT Health在评估急症时表现不稳定,超50%的紧急病例被建议“等两天再看”,可能延误最佳抢救时机。
🚨 核心发现:急诊变“门诊”?
根据2026年1月发表在《自然·医学》的研究,专家对OpenAI专用的医疗聊天机器人ChatGPT Health进行了实测,结果令人心惊:
🔹 51.6%的急症被“低估”:面对糖尿病酮症酸中毒、呼吸衰竭等足以致命的急症,AI竟然没叫人去急诊(ER),而是建议“24-48小时内约个医生”。
🔹 特征模糊则“躺平”:对于中风等特征明显的病症,AI能100%识破;但对呼吸困难等病症,它似乎在“等病情无可挽回”才肯建议就医。
🔹 无视心理危机:在自残或自杀倾向的测试中,AI表现混乱,该给自杀干预热线(988)时没给,不需要时却乱给。
🤡 另一面:小病被“放大”
除了低估重病,AI还会对小病大惊小怪:
🔸 64.8%的非急症被“过度分诊”:一个普通的感冒嗓子疼,AI也会催你赶紧看医生,而实际上居家休息即可。
🔸 逻辑自相矛盾:研究者直言,AI的建议逻辑与临床风险完全是反着的,非常“莫名其妙”。
🏥 为什么这么多人还在用?
尽管不靠谱,但OpenAI数据显示全球已有超4000万人用它咨询健康,每周有200万条信息涉及保险,50万条来自医疗资源匮乏的偏远地区。
人们爱用它,是因为它像一个“全天候医疗搭子”:不限次数、不限时间,还能随时上传报告。但专家警告:“考得好”不等于“医术高”,通过医学考试和真正救人之间隔着鸿沟。
💡 专家提醒:警惕AI的“谄媚性”
大语言模型有一个致命弱点——谄媚性(Sycophancy)。它倾向于顺着你的话说,如果你对病情有误解,AI为了“有礼貌”可能会强化你的错误认知。
ARISE研究主任Ethan Goh指出,AI可以作为参考,但绝非医生替代品。OpenAI官方也明确标注:“本产品不用于诊断或治疗。”
📢 遇到突发剧痛、呼吸困难或疑似中风,请立即拨打 911 或直奔 ER,千万别在聊天框里等答案!
最新评论 4
: 笑死,信ai?還是買點保健品吧
笑死,信ai?還是買點保健品吧
: 电子华佗在线劝你等两天 电子华佗在线劝你等两天
: 看病的话还是约医生结合自己的经验吧 看病的话还是约医生结合自己的经验吧
: 出事了科技公司又不负责,这个用的时候还是得慎重 出事了科技公司又不负责,这个用的时候还是得慎重