尽管AI在诊断依据的获取和处理上具有优势,但其局限性也不容忽视。
科技日新月异的今天
人工智能(AI)正逐渐渗透
生活的方方面面
“AI+医疗”也成为热门应用领域
很多人身体不适就选择AI问诊
不少医院也将AI医疗
落地到医院诊疗场景中
那么问题来了
“AI医生”能给人看病治病吗
自己用AI看病能否安心
“AI+医疗”成趋势
今年新年伊始,“AI+医疗”的应用进一步加速。据不完全统计,全国已有90余家医院接入DeepSeek,覆盖ICU、急诊、影像科等多个关键场景。
日前,全国首个“AI儿科医生”在国家儿童医学中心北京儿童医院正式上线应用,承担专家的临床科研助理角色,帮助专家医生快速获取最新科研成果和权威指南,辅助医生进行疑难罕见病的诊断和治疗。

在广东,省妇幼保健院、南方医科大学第五附属医院等纷纷表示,部分科室已完成了DeepSeek-R1大模型的本地化部署,对AI助力提高诊疗水平进行实践探索。广州医科大学附属妇女儿童医疗中心“AI智能导诊”和“AI预问诊”日均使用量高达2500次,累计调用超280万次,显著提升患者服务效率。
由此可见,“AI+医疗”已是行业大势所趋。
AI诊断依据从何来?
AI诊断的准确性与可靠性,很大程度上取决于其训练数据和算法设计。目前,AI诊断依据主要来自以下几个方面:
#海量医疗数据的训练
AI模型通过分析大量的医疗数据,包括病历、医学影像、实验室检查结果等,学习疾病特征与诊断结果之间的关联。一些AI模型在医学影像分析中表现出色,能够识别出微小的病变,超越了人眼的极限。此外,AI在处理结构化数据时,能够快速提取关键信息,辅助医生进行诊断。
#医学文献与临床指南
AI系统会参考大量的医学文献和临床指南,这些资料为AI提供了标准化的诊断流程和参考标准,以提供符合医学规范的诊断建议。
#专家经验与知识整合
一些AI模型还会整合专家的经验和知识。例如,通过模拟真实诊疗场景,AI可以学习专家的诊断思路和决策过程。这种结合专家经验和数据驱动的方法,使AI在处理非典型病例时也具备一定的能力。

#多维度数据融合
现代AI诊断系统不仅依赖单一数据源,还会融合多种数据类型,一定程度上也能做到结合患者的症状描述、检查结果和影像学信息,更全面地评估病情。这种多维度的数据融合,使得AI在某些复杂疾病的诊断中表现出色。
需要注意的是,尽管AI在诊断依据的获取和处理上具有优势,但其局限性也不容忽视。首先,AI依靠模型的训练数据,建模的数据往往决定了AI的整合“算力”,不同AI存在“算力”上的参差不齐。其次,面对数据缺乏的罕见病非典型病例时,由于历史数据相对缺乏,容易出现误判。此外,AI缺乏医生的临床经验和人文关怀,无法完全替代人类医生的判断。
警惕“AI幻觉”!AI的定位更多是“辅助”
我们平时用的AI工具,包括DeepSeek在内,准确来说都属于GAI(generative artificial intelligence,生成式人工智能),是AI的一种。需要警惕的是,GAI工具并非100%准确,它为用户提供的,有时候可能只是看起来合理但却与事实不符的信息,这就是所谓的“AI幻觉”。
“AI幻觉”最常见的表现就是会编造一些不存在的事实或者细节。就像在考试时遇到不会的题目,我们会试图用已知的知识去推测答案一样。AI在遇到信息缺失或不确定的情况时,会基于自己的“经验”(训练数据)进行填补和推理。
所以,如果智能工具的使用者本人,不具备相关领域的扎实基本功,那就很容易被GAI给出的错误信息蒙蔽。涉及医疗决策时,有些失误就会造成悲剧性的后果。

事实上,国家卫生健康委、国家中医药管理局2022年发布的《互联网诊疗监管细则(试行)》中,就有多处对人工智能使用的限制规定。其中包括“医师接诊前需进行实名认证,确保由本人提供诊疗服务。其他人员、人工智能软件等不得冒用、替代医师本人提供诊疗服务”,此外,“处方应由接诊医师本人开具,严禁使用人工智能等自动生成处方”。
国家卫生健康委印发的《卫生健康行业人工智能应用场景参考指引》,列出了84种应用场景,均强调人工智能的“辅助”定位。其中,从辅助诊断、辅助决策,到辅助治疗、辅助规划手术,“辅助”是AI医疗的一个关键词。
作为普通人,自己用AI看病能否安心?
对于普通人来说,AI的使用效果则更为复杂。AI的诊断高度依赖用户输入的信息,而普通人往往缺乏专业的医学知识和表达能力,信息传达的准确性是一大挑战。如果输入信息不准确或不完整,AI的诊断结果可能会出现较大偏差,甚至给出完全错误的建议。

#信息表达模糊导致误判
比如,患者仅输入“我感觉不舒服”,却没有详细说明具体症状、持续时间或相关背景信息。AI系统因缺乏关键细节,只能给出宽泛的建议。
#症状描述不全面引发误导
如患者因胸痛咨询AI,却未提及自身高血压、心脏病史,AI可能误判为普通肌肉拉伤,忽略潜在心脏问题,导致患者错过最佳治疗时机。
#缺乏个性化评估
AI在处理复杂病情时,难以像医生一样综合考虑多种因素及捕捉关键信息,同时缺乏个性化考量。
AI看病是否可行?
放眼未来一定“大有可为”
但使用者必须始终抱着“不放心”的态度
多思量、多权衡才可最大程度地“放心”
主题测试文章,只做测试使用。发布者:参考消息网,转转请注明出处:https://www.cns1952.com/gov/8644.html