栏目分类
你的位置:联华证券配资 _股票配资开户条件_股票配资平台 > 股票配资平台 >
转自:千龙网关于股票的交易
原标题:诊断常见病已达基准线 AI有望重塑诊疗流程与管理规范
本市多家医院布局DeepSeek
今年以来,DeepSeek仿若一颗人工智能领域的新星,为很多行业的未来前景赋予了更多可能性。据不完全统计,目前国内已有超百家医院接入DeepSeek。在北京市,北京友谊医院、北京清华长庚医院、北京大学第三医院等多家医院纷纷宣布完成本地化部署。
这场AI革命如何重塑诊疗流程与管理范式?将为医院服务、管理带来怎样的变化?是否会代替医生?如何规范其使用?北京青年报记者深入多家医院展开调查。
入局
20余天完成本地化部署
DeepSeek落地多家医院
展开剩余91%2月27日上午9点26分,北京友谊医院医学数智创新中心、信息中心向全院发布了一份满血版DeepSeek大模型试用通知,标志着全院所有职工可通过三个院区4000余台工作电脑使用满血版(671B)DeepSeek-R1大模型。
在之前的20天里,北京友谊医院医学数智创新中心办公室副主任王力华既忙碌又忐忑。作为一名深耕医疗技术领域30多年的管理者,王力华敏锐地观察到,“是时候了”。假期还没结束,她决定要把DeepSeek引进来。节后上班第一天,她做了两件事:向院领导提出部署申请,并顺利得到了主管院领导的同意;寻找算力支撑,成功联系合作伙伴联通和华为。2月20日,系统正式搭建完成并展开内测。随后几日,DeepSeek顺利接入院内用于诊疗工作的HIS系统、用于内部办公的OA系统等主要业务系统,并在4000余台办公电脑桌面进行布局。
一石激起千层浪,这个春节假期前后,清华大学附属北京清华长庚医院医学数据科学中心主任李栋也是一刻不得闲,在他的日程表里,“研究DeepSeek”被列为最高优先级。
在节后首个工作日,北京清华长庚医院立刻组织院内有关科室、技术团队准备本地部署DeepSeek。医院前期积累的智慧医院建设经验、超前布局算力设施,让接入DeepSeek的过程非常顺利。基于此前开展的医疗数据深度治理,该院DeepSeek部署和数据训练几乎同步进行。“DeepSeek一接入,我们便将全院已完成治理的数据库全部注入,用优质的医疗专业数据去打磨训练,从而将普通版DeepSeek迭代为‘清华长庚特制版’。”
北京清华长庚医院所设想的“DeepSeek医疗矩阵”已初具规模:纵向上,开放了155个端口覆盖全院所有科室,并触达所有紧密医联体单位。横向上,未来计划打通清华大学四家附属医院所有数据,以海量专业数据训练持续提升模型精度。
体验
可视作高级辅助诊断工具
诊断结论仍需要医生签署
DeepSeek的强大功能让不少敢于尝鲜的医生“直呼好用”。北京友谊医院病理科主任陈光勇惊叹于DeepSeek严密的逻辑思考过程。“以前搜索信息,查到的结果可能是一个点,而DeepSeek能把点连成线,甚至是一个面,可以帮助医生拓宽视野,拓展思考问题的广度和深度,帮助查缺补漏和纠偏。输入的信息越多,搜索也会越精准,可能会越来越接近于疾病本质,功能非常强大。”
陈光勇对北京青年报记者表示,目前将DeepSeek视作一款更高级的辅助诊断工具,最后做出诊断的主体依然是医生,DeepSeek给出的只是建议和可能性,而由医生签发的诊断结论才是具备法律效力的。在北京友谊医院内分泌科副主任医师于恒池看来,DeepSeek有着人类不可比拟的优势,比如海量的数据资源、强大的信息检索能力、快速的判断推理能力,能帮医生搜集资料、拓宽视野,也有助于患者进行自我学习,节省医生沟通成本。
最近,北京清华长庚医院做了一个试验来验证其可靠性,发动医生在DeepSeek中输入了数千个病历样本,比对其诊断结果和医生诊断结果,发现两者吻合度很高。基于此,李栋认为,DeepSeek在一些常见病诊断方面已达到了诊疗“基准线”。
革新
改变医院管理范式
破解痛点难点问题
“DeepSeek的到来将彻底改变医院管理范式,尤其是一些痛点、难点将有望迎刃而解。”李栋表示,对于DeepSeek部署后的应用场景,北京清华长庚医院计划用DeepSeek去推动院内实物流、信息流、现金流、业务流的精细化管理,为医院服务提质。
在智能化管理方面,定制化DeepSeek将全面覆盖医院168台移动医疗护理车,以及超过120台大型医疗仪器及全部电子签名平板,全面支持诊疗各环节,包括智能护理等核心业务场景;利用DeepSeek强大的数据分析能力,医保智能审核系统将更智慧,进一步提高不合理费用的预警能力,减少不合理医保支出,降低医保费用拒付风险;通过DeepSeek科学分析预测医疗耗材使用量,可杜绝浪费、减少积压、避免短缺;DeepSeek接入住院部各护理站后,护士无需从住院药房获取首日量药品,可有效提升服务效率;在患者服务方面,可利用DeepSeek升级医院客户端,为患者给出挂号建议,避免跑错科室,提升患者就诊体验……
“我们关注的是能否用其有效整合医院各科室的数据资源,深度优化临床诊疗,在提高医疗品质的同时,把整体的医疗费用降下来,最终造福患者。精细化管理上来了,患者的体验也将升级,必将助力医院健康发展。”李栋说。
隐忧
诊疗涉及医生经验人文关怀
短期内无需担忧AI替代医生
随着强大的DeepSeek的出现,也让不少医生担忧:“天塌了”。北青报记者注意到,已有部分患者拿着DeepSeek给出的建议和医生诊断结果进行对比,似乎在挑战医生的权威,由此引发人类医生是否会被AI医生替代的讨论。
在北京大学第一医院核医学科副主任医师孙宏伟看来,AI确实是医学好帮手,但他并不担忧自己会被替代,“因为病情研判是一个专业而复杂的过程,有很多灵活因素要考虑,有赖于医生的丰富经验。以用于肿瘤诊断的PET/CT为例,PET/CT通过特异性探针观察病灶葡萄糖代谢变化。患者扫描的影像结果是明确的,但做出诊断还要考虑诸多个体化因素。患者的葡萄糖代谢水平受身高、体重、血糖,以及当天的饮食、睡眠、视听刺激等因素影响,需医生综合研判。医学诊断不是非黑即白。”
大模型有个特点——答案高度依赖提问方式,准确输入方能得到准确输出。孙宏伟表示,使用DeepSeek提问时,好比检索文献,输入的关键词不同,搜索的结果也会不一样。“医学诊断必须以专业性为基础,即使使用DeepSeek去检索也有专业性问题,否则很容易导致自己检索的结果与医生诊断大相径庭。”
于恒池注意到,源头数据库的可靠性、全面性会影响输出结果。目前大众能接触到的DeepSeek属于通用版,虽涵盖了海量的诊疗标准、诊疗案例,但其中信息鱼龙混杂,权威的、核心的国内外文献数据是否全部囊括?一些需要付费的专业论文、知识库是否涵盖?罕见病、特殊病种数据是否纳入?“其结论可靠性仍然存疑,需谨慎对待。”
“医学也是一门人文学科,涉及医患间情感交流,人文关怀是人工智能无法比拟的。尤其是像内分泌科,涉及慢病长期管理,患者对医生的依从性、信赖度也是治疗结果的影响因素之一,AI未必有同样效果。”于恒池说。在李栋看来,医疗远非单纯的技术问题,更是一种社会行为。医生不仅要结合检测指标做判断,还要考虑患者心理及其社会因素,如职业、收入、家庭环境、成长环境等等,做出个体化诊断,生物-心理-社会医学模式几乎贯穿诊疗全过程。
此外,当前的政策红线亦不可触碰。早在2022年,国家卫健委就规定“人工智能软件等不得冒用、替代医师本人提供诊疗服务”“严禁使用人工智能等自动生成处方”,2023年发布的《北京市互联网诊疗监管实施办法(试行)》也提出了明确要求。也就是说,目前AI无法直接进行诊断或开具医嘱。
规范
热技术下的冷思考
亟须制定使用规则
对于患者隐私保护和数据安全,目前,各家医院大都采取了诸多技术进行“加码”。友谊医院要求每一个医生在使用DeepSeek时必须对患者信息进行脱敏,包括患者姓名、身份证号、手机号等。该院数据依托的是私有云,是医院内部独立、封闭的一套数据系统,不会向外网传输。在北京清华长庚医院,医院信息系统建立了防火墙、入侵检测系统等多重防护,医院信息部会随机对系统进行安全评估和漏洞扫描。患者数据信息采用多重加密技术,信息访问也有明确限制。
北京清华长庚医院也在着手制定相关规则去规范AI的使用。比如,规定使用AI辅助诊断时所有结果必须进行人工审核;各类疾病诊断,尤其是高风险复杂疾病如使用AI辅助,只能作为参考,最终诊断权必须在医生;一些包含高敏感信息或高度依赖人工判断的科室,如精神科目前还限制AI的大范围应用。
在李栋看来,以DeepSeek为代表的大模型已经开始影响诊疗各个环节,甚至会重塑医疗领域。国家也在鼓励AI赋能医疗,2024年11月6日,国家卫生健康委等部门联合印发《卫生健康行业人工智能应用场景参考指引》,涵盖了医疗服务管理、基层公卫服务、健康产业发展、医学教学科研四大领域的84个具体应用场景。
“我们鼓励AI+医疗,但还有许多规则需要及时制定,去理清概念、权责,明确规范。既不能管得太死、限制人工智能的发展活力,又不能放得太松,否则会对百姓生命健康带来潜在的风险,这非常考验相关部门在AI时代下的管理能力。其实我们的最终目的就是让老百姓用上放心的AI医疗产品。”李栋说。
当前,DeepSeek还是一个通用模型,对于将来更加专业化的道路,陈光勇也有自己的憧憬:依托DeepSeek建立更多亚专科大模型,推动疾病诊疗的专业化,造福更多患者。
对于DeepSeek给医疗行业带来的变革,北青报记者专门向DeepSeek提问,正如其回答所言:“从听诊器到AI,工具在变,但医学温度永恒。医疗AI的终极目的不应是替代医生,而是让‘超级医生’能力更加普惠。”
·对话·
患者对是否接受AI诊疗享有知情同意权
对话人:北京大学医学部伦理法律副教授刘瑞爽
北青报:当前医院引入AI可能面临哪些风险?
刘瑞爽:AI引入医疗可能会涉及合法性、公平性、透明性、安全性、可靠性、隐私及个人信息保护、知识产权归属、责任划分、技术性失业和法律监管等多方面。例如合法性问题,AI参与诊疗服务是否拥有行政许可、是否具备相应资质?再如,AI系统参与医疗资源分配,涉及医疗公平、消除偏见等问题;还如,假设监管部门对AI参与诊疗准入,还存在对AI整个生命周期如何持续监管的问题。
北青报:当医生使用AI进行诊断发生误诊时,责任应如何界定?
刘瑞爽:现阶段来看,AI并不具备执业医师资格,没有独立诊疗的权利,应当被定位为辅助诊断工具,诊疗不能仅靠AI的建议。如AI参与诊疗活动出现误诊等情况,依据现行法律,构成医疗损害责任的,应当由医生或医院承担相应责任。
但是,AI介入医患关系中后,参与主体除了传统的法律主体之外,具备高自主选择能力的、具有“黑箱性”的AI系统成为医疗活动因果链条上不可忽视的一部分。那么,因其没有法律主体资格,所以AI自身不能承担法律责任。如果能确定误诊是由设计者(如程序员)、部署者(如医院)、应用者(如医务人员)等哪一方造成的,可按现行法律归责。但AI的加入,导致难以确定是哪一方造成的,即算法问题、模型问题、输入数据问题还是输出错误建议问题等难以确定;此外,AI到底是传统意义上的产品、技术还是医疗服务的一部分,现行法律也尚不明确。因此,传统的侵权责任归责原则受到挑战,AI参与的,甚至是纯属AI导致的损害,如沿用现行法律一律由医疗机构或设计者担责,恐出现责任划分不公平,导致利益失衡。
北青报:AI的介入是否会加剧医疗机构之间的水平差异?
刘瑞爽:技术的差距可能导致马太效应,需引起重视。一些资金雄厚、患者数据丰富的头部医院或能布局质量好的人工智能,训练出更精准的AI模型提升医疗服务质量,可先行带动医疗AI发展,但也需注意AI发展的均衡性。其他医疗机构尤其是基层机构往往因数据不足、财力投入不够等,在AI引入方面能力有限。这将加剧技术鸿沟、形成技术壁垒,进一步拉大头部医院与其他医疗机构的水平差异,让民众看病更加涌向头部医院,与我国分级诊疗制度不符。因此,有关部门应重视这一问题,建立AI医疗资源共享制度,让更多机构共享技术发展红利。
北青报:您对AI医疗监管有何建议?
刘瑞爽:医疗AI事关民众的生命健康、人身安全、财产安全、人格尊严等和重大权益,必须规范行业发展,把相关的监管体系和规则制度建立起来。例如,国家层面推动全社会广泛参与医疗AI的立法进程关于股票的交易,建立健全相关AI系统、AI模型以及含AI 医疗产品的准入制度,保障诊疗的准确性和安全性,避免无序发展、各自为政。医院层面必须建立完善的AI质量管理体系,防范风险。如AI数据治理方面要做好患者隐私及个人信息保护;建立问责制,构建包含日志追溯、数据审计的透明化系统,保证数据可追溯、可问责。此外,患者的意见非常重要,患者对是否接受AI参与的诊疗,原则上享有知情同意权,包括拒绝AI参与诊疗的权利。
发布于:北京市
下一篇:没有了