数字法治|郑志峰:诊疗人工智能的医疗损害责任

人工智能
后台-插件-广告管理-内容页头部广告(手机)

作者:郑志峰,西南政法大学民商法学院副教授。本文来源于《中国法学》2023年第1期,作者身份信息为发文时信息。

与自动驾驶汽车等替代型人工智能应用不同,诊疗人工智能仅为医务人员提供辅助作用,这使其背后的人机关系以及责任承担具有特殊性。诊疗人工智能并未改变现有医患关系结构,但人机协作诊疗模式加剧了医务人员诊疗过失的认定难度。诊疗活动的伦理属性与技术特点决定了诊疗人工智能的辅助定位,应当挖掘当时医疗水平标准背后的合理医生标准,赋予医务人员自由裁量权,同时配置适当的再判断义务,确保机器判断的益处被安全采纳。诊疗人工智能的辅助定位并未消除医疗产品责任的适用空间:在缺陷判断上,脱胎于理性人标准的理性算法标准可以一定程度缓解设计缺陷的认定困境,而对于专业中间人规则带来的警示缺陷证明难题,宜通过强化医务人员的特殊告知义务解决;在因果关系要件上,诊疗人工智能的辅助定位使得事实因果关系与法律因果关系的认定都面临特殊困难,可通过NESS标准以及替代原因理论予以补正。

一、引 言

近年来,新一轮人工智能热潮席卷全球,各种人工智能应用形式不断涌现,在助力数字经济、数字政府、数字社会建设的同时,也对现行法律制度提出了全方位的挑战。其中,人工智能引发的侵权责任问题尤为受到民法学者的关注。但当前大多数研究皆围绕自动驾驶汽车展开,诊疗人工智能的侵权责任问题尚未得到应有重视。

诊疗人工智能与自动驾驶汽车分别是人工智能在医疗领域与交通领域的具体应用,两者引发的侵权责任问题都可谓关系重大,不仅涉及技术创新与产业发展,还关乎到广大人民群众的生命健康安全。相较于自动驾驶汽车,诊疗人工智能直接应用于诊疗活动,与患者的生命健康利益紧密关联,具有更强的涉人身属性,更需要配置适当的责任规则来保障技术安全与救济受害人。2021年6月,世界卫生组织发布指南《医疗卫生中使用人工智能的伦理与规制》,指出:“责任规则在促进安全和问责方面发挥着重要作用,在某些情况下,它们是防止机器学习技术出错的第一道也是唯一一道防线”。实践中,自2020年以来,我国已经相继批准了肺结节CT影像辅助检测软件、冠脉CT造影图像血管狭窄辅助分诊软件、糖尿病视网膜病变眼底图像辅助诊断软件等多款基于人工智能技术的医疗产品上市,诊疗人工智能引发的侵权责任问题可谓迫在眉睫。

需要说明的是,本文讨论的诊疗人工智能,是指利用人工智能技术为医务人员的诊断与治疗活动提供辅助决策支持(包括提供病灶特征识别、病变性质判定、用药指导、治疗计划制定等临床诊疗建议)的系统。根据功能不同,目前已商用的诊疗人工智能可以分为两类:一类是疾病诊断,即系统通过对B超、X光片、CT等各类医疗影像数据的深度处理,生成疾病诊断的建议。例如,我国获准上市的肺结节CT影像辅助检测软件产品就属于此类应用。另一类则是提供治疗方案,即系统通过模拟医务人员的思维与推理,在疾病诊断的基础上,提出针对性的治疗方案建议。实践中,最为知名的产品当属美国IBM公司的癌症诊断系统沃森(Watson),可以为肺癌、乳腺癌、直肠癌、胃癌、宫颈癌、前列腺癌等多种癌症的患者推荐个性化的治疗方案。此外,手术机器人也是人工智能在诊疗领域非常重要的应用场景,但短时间内商用的可能性还有待观察。至于当前学界讨论较多的达芬奇手术机器人,严格来说不属于人工智能,因为所有的治疗行为均由医务人员在操作台借由机械臂完成,系统本身并没有展现任何自主性或学习能力,本质上仍然是传统医疗设备。故此,本文不对这类应用作讨论。

我国《民法典》对医疗损害责任采取广义界定,至少包括违反诊疗义务的损害赔偿责任(诊疗损害责任)、违反告知义务的损害赔偿责任(告知损害责任)、医疗产品责任以及侵犯患者隐私权、个人信息的损害赔偿责任四种类型。笔者认为,诊疗损害责任与医疗产品责任最能体现诊疗人工智能给各方主体的责任承担带来的挑战:其一,现代医疗系统日趋精密复杂,强调医务人员与医疗设备的统筹安排,诊疗损害责任与医疗产品责任能够集中反映诊疗人工智能对于诊疗活动中“人”之要素与“物”之要素的影响。与此同时,相较于自动驾驶汽车,诊疗人工智能更强调人机协作,这使得“人”与“物”的责任愈发密不可分,需一体检讨。其二,诊疗损害责任与医疗产品责任分别对应诊疗人工智能的使用人一方与生产者一方的责任,基本涵盖了诊疗活动各方主体的责任问题,可以较为全面地审视诊疗人工智能带来的冲击。至于侵害患者隐私权、个人信息的损害赔偿责任以及侵犯患者知情同意权的告知损害责任,更适合从医疗数据与算法治理的角度进行专门探讨。为使讨论更为聚焦,本文着重分析诊疗人工智能对于诊疗损害责任与医疗产品责任带来的挑战,寻求可能的应对之策。

二、诊疗人工智能适用诊疗损害责任的挑战与应对

诊疗损害责任属于过错责任,包括医疗机构的过错与医务人员的过错。虽然人机协作诊疗模式会在一定程度上加强诊疗活动的组织性特征,但最大的挑战仍然是面对诊疗人工智能这一强有力的辅助,如何认定医务人员的诊疗过失问题。毕竟诊疗人工智能并非百分百安全。例如,有医学专家指出,沃森在训练时存在“多起治疗建议不安全、不正确的例子”,甚至为一名65岁的男癌症患者开出了一种可能导致“严重乃至致命性出血”的药物。面对诊疗人工智能的辅助,医务人员究竟是该坚持自己的判断还是采纳机器判断?如果医务人员因为采纳或拒绝机器判断导致患者损害,该如何认定其诊疗过失?

(一)自主性与辅助定位的协调

1.自主性与辅助定位的冲突

不同于一般医疗产品,诊疗人工智能具有高度自主性,能够自主地作出疾病诊断与治疗的建议,并在速度、准确度等方面匹敌甚至不断超越医务人员。而相较于自动驾驶汽车,诊疗人工智能又具有辅助性的特点。具言之,诊疗人工智能与自动驾驶汽车分别代表着人工智能两种不同的技术路线,前者强调人工智能对于人类的辅助,属于辅助型人工智能;而后者体现的是人工智能对于人类的替代,属于替代型人工智能。根据《智能网联汽车道路测试与示范应用管理规范(试行)》以及《汽车驾驶自动化分级》的规定,自动驾驶包括有条件自动驾驶、高度自动驾驶与完全自动驾驶三个阶段。一旦开启自动驾驶功能,系统在设计运行范围内完全替代人类驾驶员执行动态驾驶任务,人类驾驶员无需对系统作出的每一次判断进行再判断。即使是有条件自动驾驶,人类驾驶员也仅需在紧急情况下承担接管职责,并不需要全程监督系统的决策。而诊疗人工智能的设计逻辑是辅助医务人员,虽然系统可以自主地作出诊疗判断,但每一次机器判断都需经过医务人员的再判断,才能最终转化为直接作用于患者的诊疗措施。这种功能定位的不同,意味着两者背后的人机关系存在本质差异,各方主体的责任承担自然也大相径庭。

诊疗人工智能的辅助定位在我国相关法律文件中被频繁强调。2017年2月,原国家卫生计生委印发的《人工智能辅助诊断技术管理规范(2017年版)》就明确规定:“人工智能辅助诊断技术为辅助诊断和临床决策支持系统,不能作为临床最终诊断,仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定”。2018年4月,国家卫生健康委员会印发《全国医院信息化建设标准与规范(试行)》,针对人工智能应用,使用了“辅助诊断”“辅助诊疗”“提供诊断和治疗建议”等术语。而2020年以来,国家药品监督管理局在审查批准诊疗人工智能产品时,都特别强调“不能单独用作临床诊疗决策依据”“提供给具有相应资质的临床医生作为参考”。此外,国家药品监督管理局发布的《深度学习辅助决策医疗器械软件审评要点》《人工智能医用软件产品分类界定指导原则》也都提到了诊疗人工智能的辅助定位。

从域外来看,2017年2月,欧盟《就机器人民事法律规则向欧盟委员会的立法建议》针对医疗机器人有类似表述:“最初的治疗方案和最终执行该方案的决定将始终归属于人类外科医生”。2018年12月,日本厚生劳动省医政局发布的《关于人工智能支持诊断、治疗等程序的使用与〈医师法〉第17条规定之间的关系》明确指出:“人工智能只是在医疗过程中提高医务人员判断效率和显示信息的辅助工具。在使用人工智能辅助程序进行诊断和治疗的情形,实施诊疗行为的主体是医务人员,医务人员需要对其判断最终承担责任”。此外,美国医学会直接使用“增强智能”(augmented intelligence)一词来描述医疗领域中的人工智能技术,强调其目的是增强人类的智能而非取代它。而世界卫生组织《医疗卫生中使用人工智能的伦理与规制》更是将保护人类自主性作为使用医疗类人工智能的首要伦理准则,强调“人类应该继续完全控制医疗系统和诊疗决策”。

诊疗人工智能的辅助定位,意味着其背后的人机关系始终由医务人员主导。换言之,现有医患关系结构不会改变,医疗机构仍然是承担损害赔偿责任的主体,医务人员则继续代表医疗机构具体对患者负担注意义务。然而,诊疗人工智能的辅助定位必然会与其自主性产生冲突,进而影响医务人员的判断。首先,当诊疗人工智能能够“又快又好”地诊断疾病、提供治疗方案时,医务人员会本能地产生依赖心理,对于机器判断的再判断注意力会逐渐减弱甚至放弃监督。这种现象被称之为“警觉衰退”(atrophy of vigilance)。其次,坚持诊疗人工智能的辅助定位,意味着医务人员需要对每一次机器判断进行再判断,最终作出自己的决定。理想情况下,医务人员与诊疗人工智能的判断一致,此时机器判断可以验证人的判断,进而增强医务人员作出最终判断的信心。但两者判断并不总是一致,由此产生人机之间“同行分歧”的难题。最后,要求医务人员对每一次机器判断进行再判断,必然会产生医疗资源重复浪费问题,抵消诊疗人工智能自主性带来的好处。然而,一旦突破诊疗人工智能的辅助定位,随之产生的问题是机器判断将成为认定诊疗过失的标准本身,不采纳机器判断甚至不适用诊疗人工智能都将被视为诊疗过失,医务人员则将彻底失去自由裁量权。显然,如何在诊疗人工智能的自主性与辅助定位之间寻求平衡成为一项难题。

2.自主性与辅助定位的协调

笔者认为,应当始终坚持诊疗人工智能的辅助定位,同时充分尊重机器判断的价值。

第一,坚持诊疗人工智能的辅助定位,保障医务人员的自由裁量权。首先,诊疗活动的技术特点决定着机器判断不可能百分百正确,医务人员应当享有自由裁量权。在医学这样的自然科学中,相对于已知事实来说,毋宁说未知领域与科学争议更是一种常态。人体组织、器官、病理的复杂性远超道路交通环境,诊疗活动的复杂程度与未知性也远胜于驾驶活动。对于自动驾驶汽车来说,实现高度自动驾驶甚至完全自动驾驶在技术上是可行的。然而,对于医学整体而言,虽然人工智能可以完成某些任务,但在任何时候、任何情况下,我们绝不能容忍没有医务人员的监督。诊疗活动的复杂性与未知性决定了机器判断并非真理般的存在,医务人员理当享有自由裁量权,包括是否使用诊疗人工智能以及如何对待机器判断的自由。相反,若盲目服从诊疗人工智能,机器判断将成为认定诊疗过失的标准本身,人机主次关系彻底颠倒。届时即便面对错误的机器判断,医务人员也没有动力拒绝,毕竟拒绝就意味着承担责任的风险。最终损害的是患者的利益。其次,诊疗人工智能表现好于医务人员本身是很难证明的前提,也不能成为剥夺医务人员自由裁量权的理由。诊疗效果的评判涉及诊断准确性、效率性、治疗方案的有效性和可行性、诊疗费用的高低、患者个体接受度等各种因素,就目前来看,诊疗人工智能很难全面优于医务人员,人机之间的较量需要长期动态的观察。退一万步说,即使诊疗人工智能在一些常见病、多发病等细分领域的诊疗效果更好,赋予医务人员自由裁量权并不会妨碍这一效果的实现。相较于单一的机器判断,人机组合可能是更好的选择。再次,诊疗活动直接关涉人们的生命健康,医务人员除了要有高超的诊疗技术,更应有崇高的道德原则和人文关怀,重视与患者的情感沟通,取得患者的充分信任,这是诊疗人工智能纯粹“技术理性”所无法具备的。医疗实践中,安慰剂效应(placebo effect)被广泛证实,足以证明情感等伦理要素在诊疗活动中的重要作用。易言之,诊疗活动的伦理属性也决定了医务人员不可取代。最后,坚持医务人员的主导地位,方可避免人沦为机器的附庸,确保患者长远受益。唯有始终强调医务人员的主导地位和责任意识,才能从根本上防止“警觉衰退”。相反,盲目依赖机器判断或许短期内能够在一定程度解放医务人员,但若长此以往,医务人员的独立性将被消解,专业能力将不可逆转地退化,我们将失去医学创新的能力和动力,最终损害的是医学的进步与全社会享有的医疗水平。

第二,尊重机器判断的价值,医务人员需负担适当的再判断义务。坚持诊疗人工智能的辅助定位,最终是为了确保机器判断安全地转化为诊疗措施,惠泽广大患者。为此,医务人员需要充分尊重诊疗人工智能,负担适当的再判断义务。诚然,与机械地接受或者拒绝机器判断相比,再判断义务可能会增加成本,但这是尊重患者生命健康、维护诊疗活动伦理属性、保障医学长期进步的必要支出。

对于疾病诊断场景,由于诊断结论的唯一性,医务人员的再判断义务主要体现为验证,即确定机器判断的正误,以得出最终的诊断结论。而治疗方案往往可以有多种选择,如沃森对一位肾癌患者给出的机器人辅助手术治疗(推荐方案)、腹腔镜手术(考虑方案)以及放疗(不考虑方案)三种方案,都符合《肾癌诊疗规范(2018年版)》规定。对此,医务人员的再判断义务除验证外,还需对人机之间的各种方案进行比对。如果人机出现分歧,医务人员享有最终决定权,但需尽到一位理性医生的注意义务。从比较法看,无论是英联邦法中的“Bolam测试标准”,还是美国法中的“两种流派规则”(The Doctrine of Two Schools of Thought),都充分尊重医务人员的自由裁量权,只要医务人员选择的治疗方案能够获得相当数量的经认可且令人尊敬的同仁支持,即使存在其他治疗方案且后来证明医务人员是错误的,也不能认定其存在过失。这意味着医务人员在综合衡量患者状况、医方条件以及方案可行性等因素后,可以采纳沃森给出的方案,也可以向患者建议其他方案。至于医务人员在个案中应有的注意义务,需进行个案全面式的综合评价。

(二)学习能力与合理医生标准的应对

1.学习能力与当时医疗水平标准的困境

根据《民法典》第1221条规定,我国判断医务人员诊疗过失的基本标准是“当时医疗水平”标准,即以实施诊疗活动之时的医疗水准确定的诊疗义务为判断标准。当时医疗水平是与当时医学水平相对的概念,医疗水平是临床能够达到的水平,而医学水平是医学科学发展的最高水平。作为专业人士,医务人员理当了解医学研究的最新发展。《医师法》第23条明确规定,医务人员负有“努力钻研业务,更新知识,提高医学专业技术能力和水平,提升医疗卫生服务质量”的义务。然而,医学研究的文献每五年就要翻一倍,医务人员根本无法及时全面地掌握最新和最重要的医学知识,更别说将这些知识用于诊疗实践。在“Crawford案”中,医务人员给麻醉状态下的患者输血造成损害,初审法官认为权威医学杂志《柳叶刀》六个月前曾经发表过一篇文章,描述了麻醉状态中输血可能引发的各种并发症,医务人员没有及时了解这一研究成果,存在诊疗过失。但随后,丹宁勋爵推翻了初审判决,认为要求医务人员必须阅读医学期刊上的每篇文章会带来过于沉重的负担。

然而,与医务人员有限的学习能力不同,诊疗人工智能的一大优势正是具有超强的学习能力,其能够第一时间学习海量的最新医学研究成果,并体现在机器判断中。据报道,沃森能够“在17秒内阅读3469本医学专著、248000篇论文、69种治疗方案、61540次试验数据、106000份临床报告”。哥伦比亚大学的临床医学教授赫伯特·蔡斯曾经提到沃森做过的一个测试:“一位怀有身孕的患者患有莱姆病,并且对青霉素过敏。对此,沃森推荐了一种药物。我当时想到的第一件事是沃森出错了,那种药不能用于对青霉素过敏的患者。然而,我的知识差不多停留在五年前。在过去几年里,医学领域的一些权威人士审查了所有的研究并给出结论——可以为对青霉素过敏的患者提供那种药物。”可以预见的是,在诊疗人工智能的辅助下,法院可能会要求医务人员在职责范围内及时了解最新的医学研究水平,特别是权威杂志上发表的研究成果。现行仅依据当时医疗水平标准来判断诊疗过失的做法可能会受到挑战。

2.学习能力与合理医生标准的应对

虽然《民法典》第1221条将当时医疗水平标准作为判断诊疗过失的基本标准,但应当看到其背后所蕴含的合理医生标准,即从事诊疗活动之时一位合格的医务人员应当具有的医疗水平。一方面,《最高人民法院关于审理医疗损害责任纠纷案件适用法律若干问题的解释》(以下简称《医疗损害责任司法解释》)第16条明确规定,医务人员诊疗过失的判断除适用当时医疗水平标准外,还需依据法律、行政法规、规章及其他有关诊疗规范(以下简称“诊疗规范标准”),同时综合考虑患者病情的紧急程度、患者个体差异、当地的医疗水平、医疗机构与医务人员资质等因素。据此,诊疗过失的判断标准应当是合理医生标准,考察的是医务人员在具体个案中是否尽到一位在相同或类似情形下的理性医生应当尽到的注意义务,发挥出应有的诊疗水平。另一方面,无论是当时医疗水平标准还是诊疗规范标准,指向的都是安全性和有效性已经得到确立的、较为普及的疗法,并不能涵盖那些刚起步的、有效性和安全性尚未确立的、创新型的甚至是“试验性”的疗法。相比较之下,合理医生标准强调在具体个案中考察医务人员是否尽到一位理性医生应该尽到的注意义务,让诊疗过失的判断充满灵活性,能够很好地适应诊疗人工智能的学习能力。

根据合理医生标准,面对超出当时医疗水平的机器判断,医务人员有义务在诊疗人工智能的提示下寻找相关文献,并从文献的时效性、权威程度等方面进行初步验证。在此基础上,医务人员需谨慎地进行“风险—益处”评估,全面比对新疗法相对于常规疗法的风险与收益。如果患者的病情异常严重,常规疗法又无效果,那么医务人员冒险采纳新疗法的理由就更加充足。对此,需要充分考量新疗法的风险:如果诊疗人工智能推荐的是低风险的干预措施,如增加监测、使用低副作用的药物,医务人员原则上可以接受;如果诊疗人工智能推荐的是中风险的干预措施,如服用大剂量的强效药物,此时医务人员应当进行充分验证,如确保输入数据没有错误、检查算法成熟度以及过往诊疗记录指标等;如果新疗法是存在高风险且明显违反医务人员直觉的干预措施,如对孕妇开出大剂量的沙利度胺,那么医务人员原则上应当拒绝。如果医务人员在综合比对下合理采纳新疗法,那么即使造成损害也不应被认定存在诊疗过失。反之,若医务人员为了追求绝对安全,对于机器判断给出的新疗法视而不见,固守传统的治疗方案,则可能被认定为存在诊疗过失。

(三)黑箱医疗与再判断难题的克服

1.黑箱医疗与再判断难题

现代医学讲究经验与证据,是一种强调“循证”的生物科学。诊疗活动中的检查诊断流程是一套基于现象与结果之间因果关系的经验演绎,采取的诊断与治疗措施依据的也都是此前长期反复的临床经验总结。与此相对,诊疗人工智能所使用的深度学习算法本质上是一套基于统计学的数学模型,输入层与输出层更多的是基于某种概率相关性,而非因果关系。算法能够通过处理海量数据来提炼某种相关性,进而确诊特定的疾病与提供治疗方案,但这一决策过程并非基于医务人员都充分理解、充分验证以及得到广泛证据支持的生物学关系(biological relationship)。这意味着诊疗人工智能可以给出精准的机器判断,但却无法解释这些判断是如何作出的,医务人员只能基于观察数据(observational data)而非临床试验(clinical experiment)来验证这些判断。这种不透明或缺乏解释性并非人为故意制造的,绝大多数是算法自身技术逻辑固有的属性,是算法处理海量数据必然具有的复杂架构。对此,《深度学习辅助决策医疗器械软件审评要点》明确提到,“从发展驱动要素角度讲,深度学习实为基于海量数据和高算力的黑盒算法”。

诊疗人工智能的黑箱属性,不仅会影响医务人员向患者履行告知义务,也会影响医务人员履行再判断义务。第一,医务人员无法理解算法的决策机制,不能对机器判断进行直接验证,也就无法采取适当的步骤来降低可能的风险。间接验证的办法是医务人员以机器判断为线索作出自己的判断,再将之与机器判断进行比对。这种做法可以帮助医务人员节省时间,但也存在局限。具言之,机器判断存在假阳性与假阴性的问题,即误诊与漏诊。以肺结节CT影像辅助检测软件为例,对于误诊的情形,如系统误将血管标注为肺结节,医务人员可以通过针对性的独立判断进行排除。但如果是漏诊问题,医务人员就没有办法进行精准比对,必须要重新对动辄上百张的影像资料进行全面审查才能做到万无一失。由于漏诊概率的客观存在,医务人员的全面审查义务似乎无法免除。第二,由于算法决策更多是基于数据相关性,医务人员在许多情形下并不能基于循证医学知识进行反推得出结论,完成比对。例如,算法发现某种药物对于治疗有吸烟习惯且同时患有抑郁狂躁型忧郁症(bipolar disorder)的中年妇女非常有效,从而推荐了这种药物,对此,医务人员是无法进行反推和验证的。

2.合理医生标准与再判断难题的克服

医疗的黑箱属性并非诊疗人工智能所独有。医学本身就充满不可知性,且我们已经接受了医学中的种种黑箱。例如,电休克疗法对重度抑郁症非常有效,但我们并不知道它是如何起作用的;许多药物在无人能够作出解释的情况下似乎非常有效。尽管诊疗人工智能存在算法黑箱,但医务人员仍然可以综合各方情况作出最佳判断。事实上,合理医生标准并不要求医务人员全知全能,只要求其在既有情况下尽到一位理性医生应当尽到的注意义务,其注重的是诊疗过程而非诊疗结果。笔者认为,从合理医生标准出发,医务人员在克服黑箱医疗方面可以遵循如下规则:

第一,依靠医务人员的专业知识进行直接验证。实践中,诊疗人工智能多适用于常见病、多发病,机器判断基本在常规医学知识范围内,可以依靠医务人员的专业知识进行直接验证。例如,面对肺结节CT影像辅助检测软件标注的信息,包括每个肺结节的大小、位置、体积、密度、实性比例以及恶性概率等,医务人员完全可以在机器判断的提示下进行验证。对于误诊情形,如系统误将血管标注为肺节结,或者对标注的肺结节恶性概率估算错误,此时由于系统已经明确标注出了可疑肺结节的位置、恶性概率等信息,医务人员有义务对每一项机器判断进行逐一验证。而对于漏诊情形,如原本恶性概率的肺结节没有被系统标注,理论上唯一的补救办法就是要求医务人员对全部影像进行重新审查,但如此一来,诊疗人工智能的辅助作用将大打折扣。基于此,合理医生标准应当允许医务人员通过信任质量可靠的诊疗人工智能适当减轻查漏补缺的义务,提高诊疗效率。

第二,围绕诊疗人工智能的产品性能进行间接验证。除依靠专业知识进行直接验证外,医务人员还可以围绕诊疗人工智能的产品性能进行间接验证。对此,可以从两个方面综合考虑:其一,算法成熟度。《人工智能医用软件产品分类界定指导原则》提到,要结合产品的预期用途、算法成熟度等综合判定人工智能医用软件产品的管理类别。对于未上市或安全有效性尚未得到充分证实的、算法成熟度低的诊疗人工智能,需按照第三类医疗器械管理,此时医务人员采纳机器判断的注意义务应更高。反之,如果是安全有效性得到充分证实的、算法应用成熟度高的诊疗人工智能,那么机器判断的可信度就更高。其二,数据质量。诊疗人工智能的良好运行高度依赖高质量的数据。对此,医务人员可以通过核查数据质量来间接验证。若输入的病历、影像等医疗数据本身存在不准确、不清晰、不全面等瑕疵,那么不可能输出高质量的机器判断,此时医务人员应当谨慎采纳。

三、诊疗人工智能适用医疗产品责任的挑战与应对

产品责任为无过错责任,责任主体通常为生产者与销售者。但为了更好地救济患者,《民法典》第1223条延续了原《侵权责任法》第59条规定,针对有缺陷的消毒产品、药品、医疗器械以及不合格的血液造成患者损害的情形,将医疗机构也纳入责任主体行列。据此,若诊疗人工智能因产品缺陷造成患者损害,那么医疗机构需与生产者共同承担产品责任。考虑到诊疗人工智能的技术特征,现行医疗产品责任也将面临挑战。

(一)医疗产品责任的适用空间

1.诊疗人工智能的产品属性

与自动驾驶汽车不同,诊疗人工智能属于纯粹的软件,并非软件与硬件的结合体。例如,国家药品监督管理局批准的一款糖尿病视网膜病变眼底图像辅助诊断软件,公告显示仅包含客户端软件和服务器端软件,产品服务器端部署于阿里云,客户端部署于客户端计算机,并不包括硬件产品。从比较法上看,产品责任通常针对的是有形动产,对软件能否成为产品存在争议。有观点指出,法院一直不愿意将产品责任理论扩展或适用于软件开发人员,对于医疗软件尤为谨慎。背后的原因在于,医疗软件通常被描述为通过向医务人员提供信息或分析服务来帮助他们作出决策的技术,而最终决定权始终掌握在医务人员手中。

笔者认为,应当认可诊疗人工智能的产品属性。其一,《产品质量法》第2条第2款所定义的产品指经过加工、制作用于销售的产品,软件自然可以归入这一范畴。我国司法实践中,有法院也明确将软件视为产品。同时,与书籍、影像制品等包含纯粹表达文化信息、体现言论自由的智力产品不同,诊疗人工智能属于提供技术信息的智力产品,功能上与有形的工具产品无异,理当适用产品责任。此外,从产品责任制度的目的出发,产品的本质属性并非有形还是无形,而在于批量生产、规模销售带来的社会效益,软件的无形性特征并不构成适用产品责任的障碍。诊疗人工智能作为一种批量生产、大规模销售的商业软件,理当适用产品责任,唯有如此才能有效保护患者。

其二,根据《医疗器械监督管理条例》第103条规定,医疗器械是指直接或者间接用于人体的仪器、设备、器具、体外诊断试剂及校准物、材料以及其他类似或者相关的物品,包括所需要的计算机软件。《医疗器械分类规则》以及《医疗器械分类目录》进一步明确独立软件属于有源医疗器械,包括治疗计划软件、影像处理软件、数据处理软件、决策支持软件、体外诊断类软件以及其他。从域外来看,早在2014年,国际医疗器械监管机构论坛软件医疗器械工作组就已发布指南《“软件医疗器械”:风险分类的可能框架和相应的考虑》认可医疗软件的医疗器械属性,指出“软件在医疗保健中扮演着越来越重要和关键的角色,常常能够独立于硬件医疗器械达到其预期的医疗目的”。美国食品药品监督管理局2019年发布的《人工智能/机器学习——软件医疗器械更新监管框架草案》明确规定,“当基于人工智能或者机器学习的软件用于治疗、诊断、治愈、减轻或预防疾病或其他病症时,属于医疗器械”。此外,欧盟法院最近的司法实践也有类似的论断,只要软件具有诊疗目的,即使不直接作用于人体也可以归入医疗器械。由此观之,诊疗人工智能理当属于产品中的医疗器械。

2.医疗产品责任的适用空间

诊疗活动中,产品与服务常常混合在一起,理论与实务中对是否有产品责任的适用空间存在争议。如美国法中,几乎所有的判决都拒绝了因医疗服务提供者提供缺陷药品、心脏起搏器、丰胸硅胶、颌移植物、关节假体等提起的产品责任诉讼。我国有学者也指出,如果某项医疗产品与医疗服务密不可分,如临床手术中用到的手术刀、止血钳等医疗器械、必备消毒药剂以及为保证手术安全进行的必需药品,就应当视其为医疗服务的组成部分。此时,医疗产品的使用应在整体上被定性为一种医疗“服务”,而非产品“销售”,从而适用医疗损害赔偿法中的过错责任,而非产品责任法中的严格责任。

诊疗人工智能属于医疗器械,理论上当然可以适用医疗产品责任,但其与一般的医疗器械存在诸多不同。一方面,与手术刀、止血钳、骨钉等医疗器械相比,诊疗人工智能作为医疗软件,并不直接作用于人体,属于非接触人体的医疗器械,这意味着其并不能独立地造成患者损害,必须“假手”于医务人员的诊疗行为。另一方面,诊疗人工智能仅仅是提供辅助建议,医务人员没有必须采纳机器判断的义务,相反还需依靠专业知识进行甄别后得出结论。在此过程中,诊疗人工智能的产品效用与医务人员的医疗服务融为一体,患者最终接受的是产品还是服务不无疑问。

笔者认为,诊疗人工智能在人机协作诊疗模式中仍有适用医疗产品责任的空间。第一,诊疗人工智能属于医疗器械,具备适用医疗产品责任的前提。第二,诊疗人工智能的辅助定位并不意味着其无足轻重,相反,诊疗人工智能是人机协作诊疗模式不可或缺的部分。随着技术的日益成熟,医务人员会越来越依赖机器判断,保障诊疗人工智能的产品质量非常关键,不应将风险规避的责任都施加给医务人员。第三,患者选择适用诊疗人工智能通常需要支付相应的费用,如在国内使用一次沃森的价格就高达6000元。对此,理当认为患者为产品的使用支付了对价,有权期待诊疗人工智能发挥应有的产品效用。第四,当有缺陷的诊疗人工智能产品作出错误的机器判断时,如果医务人员采纳机器判断不存在诊疗过失,那么诊疗损害责任将无法适用,此时追究医疗产品责任有独立意义。

(二)产品缺陷的认定

产品缺陷一般分为制造缺陷、设计缺陷与警示缺陷。制造缺陷主要指产品生产过程中背离了原先的设计方案、存在不合理的危险,判断起来相对容易;困难的是设计缺陷与警示缺陷的证明。根据《产品质量法》规定,我国产品缺陷的判断主要有技术性标准(国家标准、行业标准)与不合理危险标准两种。《医疗器械召回管理办法》第4条对于医疗器械产品缺陷的认定也采取这一思路。司法实践中,医疗产品缺陷的判断常常需要委托专业机构予以鉴定,凸显了国家标准、行业标准的重要性。但符合国家标准、行业标准的医疗产品仍然可能被法院认定存在缺陷。故此,如何适用不合理危险标准才是关键。

1.设计缺陷的认定

设计缺陷意味着产品的设计方案本身存在不合理危险。我国法律并未明确不合理危险如何判断,学说上存在消费者期待标准与风险效用标准两种方法,但在适用于诊疗人工智能时都面临特殊挑战。

(1)消费者期待标准的困境

消费者期待标准,指产品不合理危险超过了购买该产品的消费者的合理期待,强调将产品的安全水平与消费者的合理期待进行比较。美国《侵权法第二次重述》以及《欧共体产品责任指令》都采这一标准。然而,该标准很难适用于诊疗人工智能。首先,消费者期待标准主要适用于消费者日常生活中使用的普通产品,借助消费者的日常经验来判断产品是否违反了最低安全假设。而诊疗人工智能属于辅助医务人员诊疗活动的专业医疗器械,适用消费者合理期待标准并不合适。其次,与自动驾驶汽车不同,诊疗人工智能并不直接销售给患者,即使适用消费者合理期待标准,合格的消费者也应当是使用诊疗人工智能的医务人员,而非患者。最后,消费者期待标准的基本原理是消费者需要“对产品的设计有足够的了解或熟悉,才能对其安全或性能有合理的期望”。对此,作为门外汉的患者究竟对诊疗人工智能拥有什么样的合理期待也是极其模糊的。

(2)风险效用标准的检讨

消费者合理期待标准的不确定性遭受诸多批评,为此,美国《侵权法第三次重述:产品责任》第2(b)节改采风险效用标准,主张产品缺陷的判断重点不应是消费者主观的合理期待问题,而应从客观上进行成本效应分析,以判断产品在进入流通之前是否能够被设计得更加安全,即是否存在一个更加合理的替代设计。与此同时,美国《侵权法第三次重述:产品责任》第6(c)节对于医疗器械以及处方药作了特别规定,即使患者能够证明它们存在更加合理的替代设计,也不意味着存在缺陷,只要它们至少对一类患者是有益的,能够让一位负责任的医生开出使用它们的处方。这意味着美国法中的风险效用标准对于医疗器械、处方药设计缺陷的判断,采取了远高于一般产品的判断标准。如此一来,处方药、医疗器械几乎被排除在设计缺陷之外。

即使采取未阉割版的风险效用标准,也难以帮助患者证明诊疗人工智能存在设计缺陷。一方面,诊疗人工智能的自主性、学习能力以及算法黑箱等技术特征使得产品运行机制异常复杂且不透明,在数据与算法普遍不开源的商业环境下,要求患者提出更好的替代设计是不现实的,成本高昂且难以实现。而考虑到诊疗人工智能产品的专业性以及企业的行业优势地位,患者很难找到一位同时通晓技术与医学知识的专家证人。另一方面,诊疗人工智能的辅助定位意味着其仅仅是为医务人员提供诊疗建议,产品是否导致不合理危险很大程度上取决于医务人员的能动性,这让成本效应的评估更加复杂。

(3)设计缺陷认定的可能方法

任何产品都不可能保证绝对安全,归根结底,确保何种程度的安全性才是问题所在。对于诊疗人工智能设计缺陷的认定,关键在于寻求一个合理的安全参照。消费者合理期待标准寄希望于消费者主观的合理期待,风险效用标准强调客观存在的合理替代设计,两者都存在适用难题。对此,笔者认为可以确立理性算法标准(the reasonable algorithm standard),即诊疗人工智能的表现理当符合一个理性算法应当具有的水平,否则即存在不合理危险。主要理由在于:其一,契合诊疗人工智能的技术特征。诊疗人工智能的关键是算法模块,而算法能够独立于人类自主地决策,这使得有必要对算法本身的“行为”合理性进行独立评价。从理性人标准中类推出理性算法标准,可以有效地对算法的“行为”进行直接评价,以适应诊疗人工智能的智能属性。事实上,无论是理性人标准还是理性算法标准,本质上都是向行为体施加社会之一般期待,只不过理性人标准施加的对象是行为人,而理性算法标准针对的是具有自主性的算法本体。其二,符合设计缺陷的过失属性。产品责任的严格责任属性通常仅适用于制造缺陷,设计缺陷要件充满过失元素。无论是消费者期待标准,还是风险效用标准,本质上都是在判断生产者是否违反注意义务。理性算法标准充分挖掘这一过失元素,同时将判断对象直接对准诊疗人工智能本身,破解了对算法背后的生产者进行过失评价的困境。其三,可缓解设计缺陷的认定难度。理性算法标准强调诊疗人工智能在具体诊疗活动中的客观表现是否符合一个理性算法的水平,其比较对象是市场上客观存在的同类型的一般算法。相较于消费者期待标准而言,理性算法标准更为客观,同时又无需像风险效用标准那般要求严格的成本效应分析,可大幅缓解患者的举证难度。其四,具有可操作性。与理性人标准相比,理性算法标准操作性更强,因为相较于真实生活中“人”主观能力的多样性与行为的不可预测性,算法的各项指标更具可计算性、客观性。例如,可以从诊断准确率、信息采集准确率、诊疗平均时间以及诊断增益率等指标入手,量化计算诊疗人工智能的理性水平,实现量化比较。

如同理性人标准一样,理性算法标准的适用关键在于构建一个可供对照的理性算法形象。首先,需要寻找市场上其他相同或者类似的诊疗人工智能产品,结合具体适用场景确定一个理性算法的标准,而非直接探究诊疗人工智能是否表现得像理性人一样。其次,如果市场上不存在可供比较的算法形象,则可以寻求理性人形象的补足,原因在于人工智能本身就是对于人类理性的模拟。这意味着理性算法标准对于人工智能产品具有广泛适用性,但需要区分具体应用场景。对于替代型人工智能来说,由于算法系统的目的是取代人类用户,故其表现要比一般人类用户更加安全才属合理,即理性算法标准通常应高于理性人标准。例如,自动驾驶汽车取代人类驾驶员后,算法系统的任何一次判断失误,如误识道路标志、红绿灯、行人等,都可能会引发严重事故,故对其算法系统的要求理应更高。而诊疗人工智能属于辅助型人工智能,其目的是为医务人员提供建议,因此不能强求其诊断能力必须高于医务人员。即使算法系统有失误,如推荐的三个方案有一个不可行、标注的肺结节有部分错误等,仍然可以借由医务人员的再判断确保安全。当然,如果诊疗人工智能的表现远低于医务人员,如系统频繁漏诊明显的病灶、开出的药方经常违背基本医理,根本起不到应有的辅助作用,那么可以认定其不符合理性算法标准,存在不合理危险。

需要探讨的是,如果一位尽到合理医生标准的医务人员都不能给出正确的诊疗结论,是否有必要苛求诊疗人工智能必须给出正确的判断。对此,考虑到诊疗人工智能的辅助定位,原则上不应认为产品存在缺陷,但应看到两者之间的区别。具言之,医务人员诊疗过失的判断标准是合理医生标准,需要综合考量患者病情、个体差异、医疗水平的地域性、医疗机构与医务人员的资质等各种因素,医务人员很可能因为条件限制得出错误的判断,但并不存在诊疗过失。而诊疗人工智能的核心部分是算法与数据,具有更好的移动性和可复制性。医疗水平先进地区的诊疗人工智能产品完全可以移植到医疗水平落后的地区,从而产生诊疗人工智能的诊断能力高于当地医务人员的局面。此时,不排除存在医务人员没有诊疗过失,但诊疗人工智能不符合理性算法标准、存在缺陷的情形。

2.警示缺陷的认定

警示缺陷,指生产者没有提供适当的警示与说明,致使产品存在不合理危险。对于自动驾驶汽车来说,生产者警示义务的对象为购买汽车的消费者,但医疗产品领域存在“专业中间人规则”(learned intermediary rules),这使得诊疗人工智能的警示义务具有特殊性。美国《侵权法第三次重述:产品责任》第6(d)节对于医疗器械与处方药,就规定了这一规则。所谓的专业中间人规则,指如果产品是在专家或某一行业有经验的专业中间人的负责或指导下使用的,那么生产者只需对专业中间人尽到警示义务即可。专业中间人规则的基本原理是,只有医疗专家有必备知识、训练和判断,使不同效益和危险的特殊药品、医疗器械与不同体质和医疗状况的病人恰当匹配,以及恰当监督由此产生的结果。如果生产者履行了向专业服务专家提供全面、圆满信息的义务,那么那些专家理应能够作出明智的、安全的、有效的治疗决定。就诊疗人工智能这一医疗器械而言,医务人员是其生产者与患者之间的专业中间人,生产者无需直接对患者承担警示义务。这意味着患者要想主张诊疗人工智能存在警示缺陷,就必须举证生产者未对医务人员尽到警示义务,进而导致医务人员未对自己尽到警示义务。这对于患者来说并非易事。

诊疗人工智能的辅助定位使得产品风险的控制很大程度上依赖于医务人员的配合,因此,生产者是否对医务人员尽到警示义务至关重要。由于生产者并不直接对患者负有警示义务,为缓解举证困难,可从患者知情同意权出发,强化医务人员的告知义务。根据《民法典》第1219条,医务人员的告知义务分为一般告知义务与特殊告知义务,前者告知内容包括病情与医疗措施,适用于通常的诊疗活动;后者告知内容包括具体说明医疗风险、替代医疗方案等情况,适用于实施手术、特殊检查、特殊治疗情形。考虑到诊疗人工智能本身的复杂性与不透明特点,应将人机协作诊疗模式纳入特殊治疗情形,将产品警示作为医务人员特殊告知义务的内容。据此,医务人员有义务将生产者关于诊疗人工智能的警示内容向患者披露,否则存在告知过失。如果生产者未向医务人员尽到警示义务,导致医务人员无法履行告知义务,那么即存在警示缺陷,医疗机构与生产者须依据《民法典》第1223条承担医疗产品责任。如果生产者已尽到警示义务,但医务人员因为过错未向患者履行告知义务,那么此时不应认定存在警示缺陷,否则有过度扩大产品责任适用之嫌,生产者将无法控制风险。对于医务人员违反告知义务的行为,患者可以侵害知情同意权为由寻求救济,依据《民法典》第1219条主张医疗机构承担告知损害责任。

(三)因果关系的判断

除产品缺陷和损害外,通常认为患者还需要证明缺陷与损害之间存在因果关系。医疗产品责任中因果关系的证明本就异常困难,而诊疗人工智能的智能属性、算法黑箱等特征更进一步加剧了这一困境。面对自动驾驶汽车等人工智能产品带来的因果关系认定难题,有学者提出引入英美法中的“事物自道其缘”法理,结合具体情形来推定因果关系。这在一定程度上缓解了人工智能技术带来的因果关系认定难题。但相较于自动驾驶汽车,诊疗人工智能的因果关系难题有其特殊性。

1.事实因果关系的判断

对于自动驾驶汽车而言,产品若存在缺陷通常会引发系统故障,进而造成损害。对此,通过适用“若非”标准,不难认定产品缺陷与损害之间存在事实因果关系。然而,诊疗人工智能属于非人体接触的医疗软件,与手术刀、止血钳、骨钉等直接作用于人体或者植入人体的医疗产品不同,无法直接造成患者损害。同时,诊疗人工智能的辅助定位决定着产品缺陷必须依附于医务人员的诊疗行为。若没有医务人员的诊疗行为,患者势必不会遭受损害。但反过来,若没有诊疗人工智能的辅助,医务人员仍可能作出同样错误的判断,因此,“若非”标准无法正常适用。显然,这种人机之间错综复杂的关系加剧了因果关系的证明难度,尤其是当人工智能和人类监督交织在一起时。

对此,笔者认为,可以引入“NESS”(Necessary Element of a Sufficient Set)标准,即一个事件能够成为某结果的原因,只需它是能够造成该结果的一个充分条件组中的必要要素。据此,我们需要考察诊疗人工智能在人机协作诊疗模式中究竟扮演了何种角色。对于有缺陷的诊疗人工智能作出的错误判断,如果医务人员完全或者部分采信,进而引发患者损害,此时应当认定缺陷与损害之间存在事实因果关系。理由在于,尽管诊疗人工智能仅仅是提供辅助建议,但它确实为医务人员作出最终判断发挥了实质作用,并且成为了最终判断的组成部分,构成导致患者损害充分条件组中的必要要素。反之,若医务人员的诊疗结论完全没有借助机器判断,那么产品缺陷就不属于充分条件组中的必要要素,应认为不存在事实因果关系。

2.法律因果关系的判断

即使完成事实因果关系的认定,法律因果关系的证明依然困难,原因仍在于诊疗人工智能的辅助定位。既然医务人员在人机协作诊疗模式中居于主导地位,那么其有义务排除错误的机器判断。纵使诊疗人工智能存在产品缺陷,但中间介入了医务人员的诊疗行为,完全可能中断产品缺陷与损害之间的因果关系。此时,我们需要判断医务人员的介入行为是否构成一种替代原因。

通常来说,第三人的过失行为是不能中断因果关系链条的,因为这是被告可以预见的,因而“很少被恰当地视为替代原因”。但如果第三人的过失很严重,或者甚至可以被归类为轻率,那么也可能使被告免责。据此,医务人员的诊疗行为是否异常对于是否构成替代原因的判断十分重要。如果医务人员存在重大过失甚至是故意,如对明显违反常识的机器判断不作为,那么其行为构成替代原因。反之,如果医务人员仅为一般过失,那么应当认为其行为不构成替代原因,因为这属于诊疗活动固有的风险,生产者应当预见到医务人员可能存在一般过失的情形,不能将所有的风险都转移给医务人员。对此,美国《侵权法第三次重述:物质损害与精神损害》第35节规定,若医务人员等第三人在努力给予合理帮助的过程中加重了受害人的损害,只要加重的损害来源于提供帮助的内在风险的,不构成替代原因。易言之,医务人员出于善意并使用正常知识或者技能而实施的不当或者错误治疗,即使其存在医疗过失,也不能否定诊断人工智能产品缺陷与损害之间的因果关系。此时,“人”之要素与“物”之要素共同造成损害,医疗产品责任与诊疗损害责任同时产生。对此,患者可以主张适用《医疗损害责任司法解释》第22条,由医疗机构与生产者承担连带责任。至于内部层面,应当根据“人”“物”两者的原因力大小来具体分担。此外,举轻以明重,若医务人员尽到注意义务,仍然采纳了有缺陷的机器判断,那么产品缺陷与损害之间因果关系链条也不应中断。此时,患者只能选择适用《民法典》第1223条,由医疗机构与生产者共同承担医疗产品责任,医疗机构承担责任后可以向生产者追偿。

四、结 语

我国医疗行业长期存在医疗资源供需缺口大、优质医生资源分配不均、误诊漏诊率高等问题,而且随着人口老龄化加剧、慢性病患者群体增加,上述问题愈发严重,对于诊疗人工智能有着迫切的需求。在此背景下,为诊疗人工智能的安全应用配置适当的责任规则至关重要。对于诊疗损害责任而言,既要保障医务人员的自由裁量权,又要设置适当的再判断义务,确保人机协作诊疗模式持续良性发展。而在医疗产品责任中,诊疗人工智能在产品属性、缺陷以及因果关系的认定上都面临诸多挑战,患者想要通过医疗产品责任主张赔偿的难度不小。考虑到诊疗人工智能的辅助定位,对于医务人员采纳错误的机器判断造成损害的场合,患者通过诊疗损害责任获得救济的可能性更大。

诊疗人工智能与自动驾驶汽车分别代表着人工智能两种不同的发展方向,希冀本文的探讨可以为辅助型人工智能的侵权责任问题提供一个观察样本。

数字法治|郑志峰:诊疗人工智能的医疗损害责任

《数字法治》专题由华东政法大学数字法治研究院特约供稿,专题统筹:秦前松。

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。