
{{aisd}}
AI生成 免责声明
在AI大模型快速发展的今天,很多人在生病或出现症状时的第一反应已经不再是去医院挂急诊,而是求助于ChatGPT或者DeepSeek这类AI聊天机器人。
尽管这些通用聊天机器人在日常生活的很多方面都能成为人类的好助手,但在医学方面,它们还不足以好到能提供精确诊断的程度。
近日,美国哈佛医学院的一个研究团队评估了20几种最先进的AI大型语言模型(LLM)的诊断能力,其中包括ChatGPT、DeepSeek、Gemini和Claude。结果显示,基于患者的初步症状和体征进行“鉴别诊断”(识别可能的疾病)的错误率高达80%。
这项研究进一步显示,在患者提供更多检测结果后,大模型可以将“最终诊断”的失败率降至40%左右。研究人员表示,这意味着AI聊天机器人需要通过充分的患者信息,才能对疾病作出更为精准的诊断,患者无法提供完整的健康检测信息时,AI提供的结果并不可靠。
研究人员还强调:“人工智能尚未达到无需医疗专业人员干预即可为患者做出诊断决策的水平。”
这一研究结果也凸显了人工智能在医疗领域应用时面临的安全挑战。聊天机器人等AI工具若不经过专业人士的严格把关,不仅会误导患者,医学从业者在使用AI作为检索资料的过程中也可能被误导。
上周《自然》杂志就刊登了一篇文章,称出现在网上的两篇假论文中的一种不存在的皮肤疾病,被同行评议的文献引用,并且开始出现在Gemini等最常用的大型语言模型聊天机器人的输出中。这些聊天机器人“一本正经”地将一些患者诊断为这种不存在的疾病,并建议人们去看相关的专科医生。
Gemini是谷歌的一款聊天机器人。一位谷歌发言人表示,此类结果反映了早期大模型发展的局限性。“我们始终对生成式AI的局限性保持透明,并提醒用户仔细核对信息。对于诸如医疗建议这类敏感事项,Gemini建议用户咨询具有资质的专业人士。”
中国科学院院士、复旦大学附属中山医院心内科主任葛均波教授近期多次谈及AI大模型在医疗应用中面临的挑战,其中两个关键问题是患者隐私如何保护,以及AI在医疗过程中一旦出现问题,责任由谁来承担?他表示,目前正在开展的工作包括如何明确AI技术辅助诊疗的边界,强化医生对AI结果的判断能力和责任意识,确保医疗安全。
尽管AI大模型仍在不断完善的过程中,但葛均波仍然相信,在不久的将来,随着AI技术的进步以及算法的提升,AI的能力一定会超过最顶尖的医生,从辅助医生逐步走向具有独立思考能力的诊疗工具。
以中国本土研发团队,与中国临床一线紧密结合,开展本土研发。
AI公司虽然懂技术,但是容易陷入“拿着锤子到处找钉子”的困境,医生身处真实的医疗场景,最清楚临床的痛点、堵点和风险。
百度健康正在内测一款名为DoctorClaw的医生AI科研助理产品,定位为可自主执行科研任务的智能体,已上升为公司“一号位”工程,并在数据安全与合规方面采取多重防护措施。
虽然智能体概念在过去一年迅速升温,但医疗健康行业一直是此类AI应用最难落地的场景,因为其对安全及隐私保护的要求极高。
AI医疗与智能体正在进一步惠及基层医疗机构,但资源不均、标准不一、数据孤岛等问题亟待解决