陈思卓
在医疗需求不断扩增以及医院数字化转型的要求下,人工智能推动医院安保改革已成为必然趋势。智慧安保不仅涵盖了传统的监控摄像、门禁控制、报警系统等,还融合了智能分析、深度学习和自主决策等技术,使安保系统更加智能化、高效化、精准化。近年来,医院安保事件时有爆出,损害了医护人员的身心健康,破坏了患者的就医环境[1]。因此,坚持 “安全第一、预防为主” 的思想,发挥人工智能赋能医院安保的作用,强化医院安保改革的风险防控,构建平安智慧就医环境是亟待解决的重要问题。
人脸识别技术应用改革的风险防控
近年来,人工智能技术中的重要分支——人脸识别技术在中国得到了长足的发展,并被广泛应用。人脸识别技术因其快速、便捷、无接触的特点,得到了应用方的认可。同时,其对人员信息的留存,也为应用方进一步挖掘数据价值提供了可能性[2]。在社会身份识别、区域空间人员管理、设备权限认证、消费认证乃至图片与视频处理工具等场景中,都可能会使用到人脸识别技术。其中,某些场景下用户是可选或自愿使用人脸识别的,某些场景中则是强制要求用户使用人脸识别的。随着人脸识别技术的发展,在弱光环境、低画质情况、戴口罩等人脸遮挡情况以及人流高并发的场景下,人脸识别设备都能够准确高效地采集和比对人脸数据,这大大提高了管理效率。
医院作为公共场所,人流密集。人工智能身份验证技术集探温、消毒、人脸识别于一体,能够提高防控工作效率。医院入口处通过人脸识别对通行患者及其亲属等人员的身份进行核实,以确保进入人员身份的真实性,但目前人脸识别技术存在着相当多的风险点。
——人脸识别技术应用风险
一是错误识别风险。在人脸识别过程中,仍存在识别不准的情况。一方面包括对人脸的识别不准确,另一方面包括无法分辨伪造的人脸,这两种情况都容易被利用,从而引发风险。二是侵犯隐私风险。在摄像头已遍布各个空间的情况下,人脸会被无感知地捕捉,随之而来的是民众的各种行为会被记录,其行程和言行可与其真实身份对应,且有可能被披露,从而侵害被识别者的隐私权。三是个人安全风险。人脸数据若未被有效保护,则可能被用于私人设备解锁、账户盗用、资金盗用等情况,给民众的人身和财产安全带来风险。目前,医院利用的人工智能安防技术由于在收集个人信息时具有无意识性、非接触性、侵入性等特点,对个人隐私构成了极大挑战。个人医疗记录、日常行踪等信息的泄露将危害个人信息安全、财产安全,甚至人身安全。
——人脸识别技术应用风险的防控
人脸识别技术作为一项影响面极广的新兴技术,对其实施监管已迫在眉睫。一是在人脸识别应用领域,隐蔽的危险行为甚至违法行为已屡见报端,广大民众面临的风险也相当紧迫。切实保护人脸信息,需要自上而下地建立一整套措施和机制,有组织、有步骤、有监管地推进落实。进一步细化人脸识别场景分类,根据必要性和最小化原则,对于确需以人脸识别技术为唯一认证手段的场景予以公示,其他场景不得使用人脸识别技术,或不得将人脸识别作为唯一认证方式。二是加大宣传力度,提高民众自我保护意识。作为信息链最底端的广大民众是个人敏感信息泄露风险的承担者,只有提高其自我保护意识,才能使其有主动获取信息的动力,从而缩小信息落差。相关部门和社会组织可充分利用新媒体、新平台、新形式,将个人人脸信息的敏感性、保护人脸信息的紧迫性以及人脸信息泄露后的危险性充分传递给广大民众,让民众具备足够意识,运用法律武器督促人脸数据的应用方和技术供应方提供更多相关信息,从另一维度形成信息流动的推动力,与政府部门从不同方向缩小信息不对称现象。此外,医院在识别个人信息后,对于无危险因素的信息应及时删除,禁止该类信息被检索和访问,以此保障信息处理与存储的安全。
人工智能技术应用改革的伦理风险防控
医疗卫生是人工智能国家战略布局的关键领域[3],人工智能技术在医疗服务、医院安保等方面展现出高效、精准的优势。医院作为治病救人的重要社会公共特殊场所,由于空间相对开放、人员密度高、构成复杂,安保防范不可忽视,对精准化、智能化管理的要求尤为迫切。
——人工智能技术应用伦理风险
基于我国医疗卫生自身的职能定位、业务方式不同,人工智能的应用场景有其特殊性,亦难以完全照搬医疗服务领域的伦理审查办法。首先,人工智能项目研究涉及复杂的伦理问题,例如人工智能算法的决策过程可能无法完全体现人类伦理考量,如公平性、正义性和对弱势群体的保护。其次,人工智能项目的算法透明度和可解释性也是伦理审查的重要内容,这也关系到患者及亲属对人工智能系统的信任。尽管国内外已有许多人工智能伦理共识,但缺乏具体可操作的伦理审查机制和法律规范。再次,国内针对人工智能伦理审查的研究仍以宏观理论探讨为主,针对卫生健康领域的人工智能伦理审查研究则更为滞后,而聚焦医疗卫生领域的研究则更为稀少。随着医疗卫生事件中的数据伦理问题引发公众热议关注,尽快建立健全适合医疗卫生领域的人工智能伦理审查制度尤为重要。
——人工智能技术应用伦理风险防控
伦理审查只是工具,还需进一步扎实推进人工智能治理。人工智能技术在医院安保场景的应用不仅需要做好预防性前瞻工作,更要在监管深度上持续发力。可从以下几个维度展开:一是坚持以人为中心的基本原则,强调尊重隐私,使生成内容与人类价值对齐,在技术上做好微调,确保生成内容符合人类价值观。二是确保研究的科学性,不断完善全周期伦理审查和安全合规性评估。三是健全体系机制,建立人工智能研发和采购制度,搭建多方利益相关者沟通机制,开展多机构协作。
具体而言,在医院运用人工智能技术开展安保工作中,应当优化流程、落实责任,明确各岗位人员的具体职责,制定合理的奖罚机制。比如,安排专门人员向患者和家属介绍医院目前采用的人工智能安保系统;对系统识别的潜在纠纷人员进行关怀疏导,通知具体责任人员本着认真负责的态度及时查明真相、分清责任;安排专门部门接待患者或家属的投诉,利用相关政策文件或专家答复,用通俗易懂的语言向患者说明情况;若患者持续提出无理要求,应当坚持原则,必要时通知公安机关介入。同时,社会也应当对患者和家属进行宣传教育,倡导采用合理合法方式解决医患纠纷,谴责并惩罚暴力伤医行为。
医院通过人工智能赋能安保系统的建设与应用,将不断积累经验、提升安保水平,推动医院技术进步。加快医院智能安保系统建设、紧跟时代步伐,已成为提高安保水平的重要途径之一。医院智能安保系统也是一个不断发展与完善的过程,还应借鉴其他领域的有益经验和做法,结合社会企业的科研力量与高校资源,在更高层次上创新医院安保系统的内容、技术应用及管理模式的研究与探索。医院及相关部门在运用人工智能加强医院安保的同时,要防范各类风险,逐步建立安全高效、依法合规的人工智能安全保障系统,实现医院的可持续健康发展。
参考文献
1.崔家祺,李丰升.强化医院安保能力建设构建平安智慧就医环境[J].中国安保,2024(05):109-112.
2.吴旭莉.人脸识别的治理困境与规制改进[J].厦门大学学报(哲学社会科学版),2025,75(04):103-114.
3.李创.人工智能赋能医疗领域高质量发展的深圳实践[J].人口与健康,2025(07):41-44.
(作者单位:湖南省人民医院)
责编:欧小雷
一审:欧小雷
二审:印奕帆
三审:谭登
来源:华声在线