文/周培 图/AI
“天都塌了!病人DeepSeek后质疑我的治疗方案,气得我自己又查了一遍指南,才发现指南更新了……”2月22日,广东一位医学博主的网帖引起网友热议。当AI医生能够调取海量数据,是否意味着它将取代人类医生?
北京儿童医院曾收治过一位患鼻翼横纹肌肉瘤的2岁女童,AI系统根据肿瘤治疗规范建议先行放疗,但主治医生坚持先手术,原因是孩子太小,如果放疗完再做手术,创伤不容易愈合。之所以AI系统和主治医生“意见相左”,是因为这是主治医师在临床过程当中总结出来的经验,还没被写到书本里,所以没进到AI的“脑子”。由此可见,临床决策不是简单的数据比对,医疗过程中“望闻问切”和根据经验综合判断的能力,恰是AI难以突破的边界。
在责任方面,如果AI“误诊”,谁来负责?AI公司可能不会担责,而医生则有职业责任。根据国家卫健委、国家中医药局2022年发布的《互联网诊疗监管细则(试行)》中,就有多处对人工智能使用的限制规定,其中包括“医师接诊前需进行实名认证,确保由本人提供诊疗服务。其他人员、人工智能软件等不得冒用、替代医师本人提供诊疗服务”,此外“处方应由接诊医师本人开具,严禁使用人工智能等自动生成处方”。治病的方案可以更新,但对病人的责任永远不可能推给机器。
未来医疗的发展,应该是医生用好AI工具,而不是被工具取代。医疗并非简单的数据处理,它关乎生命、关乎人性。人类医生的专业判断、人文关怀与责任担当是不可或缺的核心价值。这种建立在责任和理解上的关系,才是守护健康的关键。
责编:周培
一审:周培
二审:印奕帆
三审:蒋玉青
来源:华声在线