APP下载

人工智能视野下医疗损害责任规则的适用和嬗变

2019-02-11李润生

关键词:证明规则责任

李润生,史 飚

(1.北京中医药大学人文学院,北京 100029;2.中国政法大学民商经济法学院,北京 100088)

一、问题的提出

人工智能(Artificial Intelligence,简称 AI)已不再只是科幻小说或电影里的桥段,而是正加速走进我们的生活。医疗是人工智能落地最早、发展最快、结合最紧密、受影响最深的领域之一。普华永道在其发布的《全球AI 报告:探索人工智能革命》中提出了“AI 影响指数”的概念,对最容易受到AI影响的行业进行了排名,其中医疗和汽车并列第一位[1]。人工智能在医疗领域的发展正不断深化,尤其在诊断、治疗等核心领域,如谷歌旗下DeepMind AI 通过3D 扫描可以识别50 种左右的眼科疾病,准确率已达到94%;贝斯以色列女执事医疗中心(BIDMC)与哈佛医学院合作研发的人工智能系统,对乳腺癌病理图片中癌细胞的识别准确率已达到92%[2]。

我国对医疗人工智能有着迫切的需求。我国医疗行业长期存在医生资源供需缺口大、优质医生资源分配不均、诊断误诊漏诊率高、医疗费用成本过高等问题,而且随着人口老龄化加剧、慢性病患者群体增加,上述问题愈发严重。人工智能医疗则可在各环节助力解决前述问题。我国政府也非常重视人工智能医疗产业的发展,国务院2017年7月发布的《新一代人工智能发展规划》就将智能医疗作为重点支持、率先突破的领域之一。

人工智能在赋能医疗行业的同时,也不可避免地会引发各类人身或财产损害。由于医疗行业殊为不同,各国纷纷调整规则予以专门应对。2016年10月,欧盟议会法律事务委员会(JURI)发布研究成果 《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics),除提出关于人工智能的一般性调整规则外,还呼吁对特定类型机器人进行专门立法、特别规制,其中就包括医疗机器人、护理机器人、人类修复和增强机器人等[3]。美国早在1996年便制定了 《健康保险可携性和责任法》(Health Insurance Portability and Accountability Act of 1996,HIPAA),通过界定患者隐私权的保护范围和方式,厘定人工智能利用和分析医疗数据的合理空间[4]。德国于2015年通过了专门规范医疗卫生数字化和人工智能的《电子卫生法》(E-Health Law)。2018年7月,日本政府宣布将完善关于人工智能医疗设备的一系列规则,把人工智能医疗设备定位为辅助医生进行诊疗的设备,最终诊疗责任仍由医生承担[2]。

近几年,我国民法学界对人工智能问题的研究热度颇高,但研究视阈相对聚焦。就一般性民法问题而言,研究主要集中在民事主体资格和民事责任上。关于人工智能的民事法律地位,学者提出了完全法律人格说[5]、有限人格说[6]、电子人格说[7]等众多学说;关于人工智能引发的民事责任,学者也提出了不同观点: 有学者认为现行民法规则能够解决人工智能问题,人工智能对现实造成的损害应适用侵权责任法的产品责任规则[8];还有学者则认为,面对人工智能带来的可预测性、可解释性及因果关系认定等难题,传统侵权法、合同法等民事规则的局限性凸显,应探索新的责任框架,更合理地分配风险和责任[9]等。就具体应用领域的民法问题而言,研究主要集中在自动驾驶等领域,主要讨论自动驾驶对于现行交通侵权规则的影响[10]。然而,关于医疗人工智能的相关研究则比较少见。应当说,医疗人工智能的发展确实在方方面面冲击着传统医疗损害责任规则,那么,现行规则①能否适应人工智能时代的新发展?是否需要对现行规则进行调整及如何调整?这些紧迫而重要的问题鲜有人涉及,这也是本文的写作缘由及拟突破创新之处。

二、人工智能视野下重新检视医疗损害责任规则的必要性分析

在人工智能时代,医疗产品更加深入地参与到医疗决策过程中,并微妙地改变着实际决策的过程甚至结果,这在某种意义上打破了《侵权责任法》所建构的相对平衡的医患规则体系;同时,基于医疗人工智能的特点,患者寻求救济的难度也显著增加。这一切都要求我们重新检视现行医疗损害责任规则,正确认知医疗人工智能。

(一)医疗服务与产品相对地位及医疗决策过程发生深刻变化

无论在英美法系还是大陆法系,医疗侵权过错归责都是一直恪守的原则。在英美法系,有所谓“商品和服务的二分法”,即基于商品而致的损害,通常施以严格责任,如产品缺陷责任、货物销售中的默示担保责任等;而基于服务而致的损害,则仅当服务者未尽合理注意义务即有过错时方负责任,如法律服务、会计服务等。“过失责任关注的是人,是人的行为,严格责任的关注点则转向物,关注产品的状况和安全性。”[11]医疗不但是一种服务,而且是一种充满不确定性和危险性、带有鲜明公益性的特殊服务,对医生群体应予以特殊关照,在过错、因果关系认定等方面应更加严格谨慎。虽然在医疗服务过程中亦附带有医疗产品的提供,但既往判例[11]多认为医生职业技能判断仍居主导地位,产品提供仅是服务的一部分,整体的医疗交易属“服务”而非“商品”。大陆法系在医疗侵权上亦坚持过错归责,认为医疗侵权责任属专家责任之一种,医疗过程依赖医生的专业技能和判断,只有当医生违背应负之专家注意义务时,方可课以责任。我国《侵权责任法》第54 条②医疗损害责任一般条款亦坚持过错归责。

然而,在人工智能时代,医疗服务和产品的地位及医疗决策过程正发生微妙变化。一方面,人工智能因为可在有限时间内分析处理几乎所有相关信息和数据,克服人类的局限性,在辅助诊断和治疗方面的能力大大提升,准确率已经或即将超过人类医生——这种优势在未来还将不断扩大,例如,据研究统计[2],在肺癌、乳腺癌、食管癌、肠癌、阿尔兹海默症、糖尿病、视网膜病变等疾病的早期检测上,人工智能算法已经达到非常高的准确率,有些甚至已超过普通人类医生。人工智能医疗产品明显不同于普通医疗产品,其对医生诊疗的影响是巨大的,甚至具有主导性。另一方面,面对人工智能提供的“辅助性”意见,医生的解释工具十分有限,有时甚至无法解释,“现代人工智能系统越来越成为一个‘黑箱’,所有决策都存在于这个‘黑箱’之中,即使学习算法是公开和透明的,但它产生的模型可能不是,因为机器学习模型的内部决策逻辑并不总是可以被理解的,即使对于它的设计者也是如此”[9],阿尔法狗和围棋世界冠军的对弈棋谱甚至连围棋专家都无法理解[12]。虽然各国均强调在医疗领域应确保医生的最终决策权③,但医疗的实际决策过程很可能转变为“人工智能决策-医生验证复查”的模式,这种“先入为主”的影响恐怕是巨大而难以阻挡的。

(二)医患情势出现明显变更

自改革开放以来,我国医疗损害责任规则经历了多次变更,每次变更背后都有深刻的形势原因。以1987年国务院出台的《医疗事故处理办法》为标志,我国进入了限制受害患者民事权利、偏重保护医疗机构的历史阶段,患者仅能获得一次性经济补偿而非等额赔偿,且只得在医疗事故鉴定后或行政处理后方可起诉,这导致了医患关系的失衡。2002年,以最高人民法院《关于民事诉讼证据的若干规定》和国务院《医疗事故处理条例》的出台为标志,我国进入了以明确加重医疗机构举证责任为特征的第二个阶段,医疗侵权实行过错和因果关系双倒置。这种制度设计有矫枉过正之嫌,不但未能有效缓解医患之间的紧张关系,而且催生出“防御性医疗”、看病难、看病贵等新问题。为此,2009年出台的《侵权责任法》以专章形式规定了“医疗损害责任”,取消了过错和因果关系倒置的规定,同时又设置了若干过错法定推定标准,标志着我国进入了医患平衡的第三个阶段[13]。但是,随着人工智能逐步进入医疗领域,这种平衡很可能被再次打破。一方面,人工智能在各方面赋能医生,医生拥有了更多的辅助工具,效率和能力都大大提升。例如,最顶尖的人类医生在识别结肠息肉中的癌细胞时错误率约为3.5%,而在人工智能的协助下,识别错误率可降至0.5%[2],医生之于患者的优势更大;另一方面,人工智能很可能成为医生新的保护伞和挡箭牌,患者索赔的难度将增大。总之,医患情势的变更,要求我们重新检视现行规则。

(三)患者寻求救济的难度显著增加

当患者就医而因人工智能医疗产品受到损害时,可能会涉及两类侵权责任,即过错归责的医疗侵权责任和无过错归责的医疗产品责任。但是,在人工智能时代,患者通过这两类侵权责任规则寻求救济,都有相当大的难度。

首先,过错难以证明和认定。在人工智能辅助诊疗的场景下,医生作出判断可能更多出于对人工智能的信赖,而且,当人工智能普遍具有更高的准确率时,医生的信赖应当说是有合理基础的,很难要求医生检查出连智能机器都未能筛查出的问题,“医疗是一门不确定的艺术”[14],智能机器也会有一定的误诊率,但让医生替代智能机器承担责任,可能是对医生的过分苛责。而且,人工智能具有自主性,在实际运作过程中有其独特逻辑,可能偏离人类控制,这连机器的设计者都无法完全掌控,更不用说医生了。总之,很难将损害的发生归结为医生的过错。

其次,因果关系难以证明和认定。医疗本身就有很多难以解释的地方,至今仍有很多人类无法攻克、无法解释的疾病。医疗过程充满探索性,不仅具有科学属性,而且有很多灵感、直觉等非理性因素的参与,医疗侵权中因果关系的确定通常需要专业机构的介入。在人工智能时代,因果关系更加难以证明和认定。人工智能自身也有很多难以解释、难以预测的现象,即使代码是透明公开的;人工智能的“后天经历”同样可能具有重大影响,成为实质上的原因,例如后天的训练数据和学习经历、无良人士的干预和误导等,这会进一步加剧归因的困难。

最后,产品缺陷难以证明和认定,免责事由容易被滥用。产品缺陷是产品责任的必备要件。根据《产品质量法》 第46 条的规定,产品缺陷是一种“不合理”的危险,不符合保障人体健康和人身、财产安全的国家或行业标准。人工智能医疗产品尚未有明确的国家或行业标准[15]。根据学者的总结,产品缺陷可分为4 类,即制造缺陷、设计缺陷、警示缺陷和跟踪观察缺陷[16]。在人工智能情境下,诚如前述,设计缺陷很难证明;在难以控制产品后续行为及预测后续具体危险事项的情况下,警示缺陷和跟踪观察缺陷也难以认定;制造缺陷的证明和适用相对容易,但人工智能产品的主要风险可能并不在此。另外,根据《产品质量法》第41 条④的规定,产品责任的免责事由主要有3 项,而其中后两个免责事由极易被滥用: 人工智能产品的缺陷很可能是在后天训练和学习过程中形成的,而在投入流通时,尚无缺陷;即使投入流通时存在缺陷,也很可能是当时的科学技术水平尚无从发现的。

(四)医疗人工智能法律定位及差别对待原则的深刻影响

关于人工智能法律主体资格的讨论已不鲜见,有不少学者建议未来可赋予人工智能以完全的法律人格、有限的法律人格或电子人格等。欧盟议会法律事务委员会也提出未来可考虑赋予复杂的人工智能机器人以“电子人”(electronic persons)地位[17],沙特甚至已经于2016年3月赋予智能机器人索菲亚以公民身份。但无论其他领域未来如何发展,笔者认为,有两个领域永远不可能赋予人工智能与人类等同的法律地位,一是规则制定和适用领域如立法、执法、司法等领域,二为医疗领域,因为这是人类保证对这个世界的主导权及自身安全的基础。

此外,关于人工智能医疗的法律规制必须体现差别对待原则。首先,人工智能即使定位为“物”,仍与普通物有很大不同,尤其是医疗人工智能关乎人类健康,附带较多的伦理和情感因素,如手术机器人、护理机器人、心理康复机器人等,需予以特别对待。正如学者所言,人有人格,物有物格,人格必须平等,但物格可有高低之别[18],人工智能医疗应属最高等级的“物”,在使用、处分等方面应予以适当限制(如不可虐待)和特别保护;其次,强弱不同的医疗人工智能对医疗过程和结果的影响有较大不同,需区别对待。欧盟议会法律事务委员会也明确指出,“一旦确定了承担最终责任的各方,他们的责任应该与机器人的实际操作水平及其自主程度成比例,从而使机器人的学习能力或自主权越大,机器人的训练时间越长,其教练员的责任就越大。”[17]综上,很有必要重新检视现行医疗损害责任规则。

三、弱人工智能下医疗损害责任规则之调适

人工智能的强弱之分具有相对性,需综合考量多种因素。就人工智能医疗而言,一般应考量的因素包括:与人类智能的接近程度;自主性和风险程度;经认证的或既往的诊疗准确率;对人类医生的影响力或依赖度;参与医疗过程的广度和深度等。为了保证必要的可操作性和预见性,可考虑将医疗人工智能的强弱认定与现行的医疗器械分类管理制度相衔接。例如,根据《医疗器械监督管理条例》和《医疗器械注册管理办法》的规定,我国将医疗器械按照风险大小分为三类,即第一类(风险程度低)、第二类(中度风险)和第三类(较高风险),其中,第一类医疗器械实行备案管理,第二、三类医疗器械实行注册管理。未来可考虑细化人工智能医疗产品的分类管理制度,并将一定等级如第三类以上的医疗器械认定为强人工智能。

(一)我国人工智能医疗产品的应用现状分析

当前我国获批的主要是风险较小的医疗人工智能产品,基本可归类为弱人工智能的范畴。据统计,虽然目前我国有不少人工智能企业申报第三类医疗器械注册,但均未获得认证,仅有部分产品获得了第二类医疗器械认证[15]。根据2017年发布的最新版《医疗器械分类目录》的规定,第二类人工智能医疗产品仅可提供诊断建议,仅具有辅助诊断功能,不可直接给出明确的诊断提示或结论,否则即应归类为第三类医疗器械。不过在未来,风险更大的人工智能医疗产品应该会逐步进入临床应用。国家药品监督管理局(CNDA)已经理清了AI审批全流程的思路,并已于2018年12月中旬开放了三类AI 器械的审批通道[2]。美国食品药品监督管理局(FDA)已于近期相继批准了IDx-DR、Osteo-Detect 等9 款风险较高的人工智能医疗产品[2]。

(二)弱人工智能对医疗损害责任规则的现实影响及适应性调整

1.弱人工智能之于医疗损害责任规则的现实影响分析

总的来说,弱人工智能对医疗过程和结果的影响有限,和普通医疗产品区别不大,其提供的诊断建议仅具有参考作用,仍需医生的推理判断和其他诊疗证据的呼应与支持。但是,弱人工智能医疗产品和普通医疗产品仍有不同,其对医生诊疗会有更大影响力,有时甚至会有重大影响,如在医疗影像识别领域,医生基于时间、精力等方面的限制,对人工智能的建议会有较大依赖;过错、因果关系、缺陷等事项的证明亦会存在一定障碍,因此仍需对医疗损害责任规则做必要调适。

2.医疗侵权责任规则的适应性调整

(1)过错的证明和认定

为降低过错的证明和认定难度,笔者建议,应增加法定过错推定标准。《侵权责任法》第58 条⑤已规定了3 项法定过错推定标准,可在此基础上增加部分标准,具体可包括:使用未经国家注册认证的人工智能医疗产品,包括在已注册的普通医疗器械中擅自加入人工智能程序;擅自在临床上应用禁止类人工智能医疗技术,或未经备案的限制类人工智能医疗技术;仅依据人工智能医疗产品的建议直接进行诊断和治疗;拒绝或无法提供人工智能医疗产品的内部代码和训练数据;拒绝或无法提供人工智能医疗产品的既往诊疗准确率;擅自修改人工智能医疗产品代码而无法说明正当理由等。

上述标准可在一定程度上实现过错证明的客观化,且这种推定或认定标准是不可反证的,可有效降低证明和认定难度。

(2)因果关系的证明和认定

为降低因果关系的证明和认定难度,笔者建议,应适当降低证明标准,采用优势证据标准。根据《最高人民法院关于民事诉讼证据的若干规定》第73 条第1 款的规定,我国在民事领域主要采用高度盖然性证明标准,只有当一方的举证证明力明显大于另一方的举证即案件事实的存在具有高度盖然性时,方可予以认定;当双方举证均未能达到高度盖然性程度时,由负有证明责任的一方承担举证不能的不利后果。在弱人工智能医疗情境下,应采行优势证据标准,即证明责任仍由受害患者承担,但只要患者的举证优于医院的举证,案件事实存在的可能性大于不存在的可能性时,即可予以认定。优势证据标准产生的初衷即是保护弱者,举例来说,当发生医疗损害时,患者只需证明医生仅依据人工智能的建议进行诊断有较大可能引发特定损害时 (如证明人工智能系统有较高的错误率),即可对过错予以认定,而无需证明这通常会引发此等损害。

3.医疗产品责任规则的适应性调整

(1)责任主体的适当调整

应增加设计者为责任主体,由设计者、生产者和销售者承担不真正连带责任,而且,在内部责任承担上,设计者承担无过错责任,生产者和销售者承担过错责任。应当说,人工智能医疗产品的设计者和生产者并不总是统一的,例如,在大型互联网公司介入人工智能医疗领域及代工盛行的背景下,互联网公司可能只提供软件设计,硬件制造则交由代工企业完成。互联网公司与传统医疗器械公司的合作也在加深,同样会导致生产和设计的分离。此外,在纯软件人工智能的情形下,可能只存在设计者。

之所以让设计者承担无过错的最终责任,有三方面理由:其一,软件设计在人工智能医疗产品中处于核心地位,也是风险的最大来源;其二,设计者是风险的最有利控制者,从源头代码防范风险是最有可能也最有效的;其三,设计者通常也是整个商业模式中获利最丰厚的主体,风险须与收益相一致。

(2)缺陷的证明和认定

为降低人工智能医疗产品缺陷的证明和认定难度,应作如下调整:首先,国家和行业组织应尽快出台人工智能医疗产品的国家标准和行业标准,尤其应明确各类人工智能医疗产品在制造、设计、警示、跟踪观察等方面的具体标准;其次,建议增加“缺陷”的法定推定标准,如人工智能医疗产品具备以下任一情形即认定为有缺陷:未经国家注册认证而投入使用,包括擅自在已注册的普通医疗器械中加入人工智能程序而投入使用;禁止类或未经备案的限制类人工智能产品投入临床应用;拒绝或无法提供内部代码和训练数据;经测验无法达到宣称或认证的诊疗准确率;经测验在同一时期内缺乏诊疗一致性;经检测发现有重大代码错误或系统漏洞等。

(3)免责事由的调整

为适应责任主体的调整及防止免责事由的滥用,应对《产品质量法》第41 条作如下调整:其一,将免责事由的适用主体调整为“设计者”,生产者不再适用该等免责事由;其二,将免责事由第一项调整为“设计者未将产品投入生产或流通”;其三,免责事由的第二、三项不再适用于设计者。

四、强人工智能下医疗损害责任规则之调适

相较于弱人工智能,强人工智能对医疗过程和结果的影响大大加深,可直接提供诊断提示或结论,诊疗准确率等各项指标已达到相当高的水平,医生对人工智能的依赖度也明显增加。虽然医生名义上仍拥有最终决策权,但人工智能在一定程度上具有“证据之王”(king of evidence)[19]的属性,医生基于时间、精力、知识等方面的局限,很难进行充分有效的反驳,医疗过程和结果的实质主导权已悄然发生变化。此外,强人工智能的自主性大大增加,过错、因果关系、缺陷等重要事实的举证难度进一步加大。总之,强人工智能医疗产品与普通医疗产品已经有重大不同,医患间的利益失衡加剧,有必要对医疗损害责任规则进行较大幅度的调整。

(一)医疗侵权责任规则的适应性调整

1.过错的证明和认定

首先应当指出,无论何种情境下,医疗侵权都应始终恪守过错归责的底线。即使在强人工智能情境,决策的最终决定权仍然掌握在医生手中,不应对医生课以严格责任。笔者认为,采用过错推定规则更为合适。

首先,在强人工智能下,仅仅参照《侵权责任法》第58 条的规定增加推定证明标准,在很多情况下已不可行。例如,强人工智能一般可直接给出诊断提示或结论,甚至可以直接作为医生诊断的依据;强人工智能普遍有较高的诊疗准确率,甚至已超过人类医生,且效率更高,医生可适度信赖;强人工智能的原始代码更加复杂,提供起来较为困难,尤其是后续自主生成的新代码及自主选择的训练数据,甚至无法提供。

其次,采用过错推定规则具有内在正当性。其一,过错推定机制的目的在于保护弱者,在强人工智能下,受害患者更加弱势,需特殊保护;其二,就举证及事实查明能力而言,设计者、生产者和销售者显然更具优势。

最后,医疗机构及医生若能证明自己无过错,亦可免责。笔者认为,在强人工智能下,若医疗机构及医生能举证证明人工智能出具的诊断提示或结论具有合理基础且可排除合理怀疑,即可证明自己无过错。

2.因果关系的证明和认定

在强人工智能下,很多时候根本无法找出损害发生的确定原因,更不用说达到优势证据的证明标准,因此,仅仅降低证明标准可能已无法有效保护患者。笔者建议,采用因果关系推定制度,一来更有助于保护弱者,二来医疗机构及医生也更有能力进行举证。

3.医疗强制责任险和赔偿基金的建立

基于过错和因果关系的双重推定,医疗机构承担责任的风险大大增加,这种制度设计实质上是将患者的风险部分转移给了医疗机构,但长此以往并不利于医疗机构的安全运营。因此,有必要将此风险进行分散,笔者建议建立强制医疗责任险制度。设置强制险需有充分的理由,满足特定的条件,一般来说,包括两大条件:其一,有广泛的社会基础,处理的是普遍存在的多数人都会面临的风险;其二,关乎社会公共利益[20]。应当说,设置医疗侵权责任险完全满足上述条件。首先,国家一直在积极推广自愿性的医疗责任险,《医疗纠纷预防和处理条例》⑥、《基本医疗卫生与健康促进法(草案)》⑦等法律文件均有体现,但实际推广情况并不理想,有明显分化,诊所、小医院等有较大的购买动力,而大医院尤其是三甲大医院则购买动力不足。原因在于,大医院和小医院及诊所的技术水平、管理能力等存在较大差异,大医院的单位医疗侵权比例明显低于小医院及个体诊所,由此导致大医院缴纳了较多的保费,实际理赔额却较少,普遍低于其所缴保费;小医院及个体诊所承受了更大的风险,却缴纳了较少的保费[21]。但是,在强人工智能下,可以预见这一现象将有较大改观,通常只有大医院才有实力和动力采用人工智能等新技术,从而在制度上面临更大风险,大医院购买医疗责任险的动力将会提升,医疗责任险也将有更广泛的社会基础;其次,医疗责任险设立的主要目标是对患者这一弱势群体进行及时、充分的赔偿,而医疗是每个公民的基本需求,医疗风险天然的就有社会化的倾向,这本身就是公共利益的体现。总之,在强人工智能下,设置和推动医疗强制责任险具有充足的理由。此外,应设立赔偿基金,作为医疗强制责任险的补充,确保未被保险覆盖的群体在损害发生时获得必要补偿,基金经费可从税收、处罚、捐赠、保费等渠道筹措。

(二)医疗产品责任规则的适应性调整

1.责任主体、免责事由的适当调整及缺陷的证明和认定

强人工智能下,责任主体、免责事由及缺陷证明和认定方面的调整与弱人工智能下的情形相似,可直接参照弱人工智能部分的处理方案。

2.因果关系的证明和认定

笔者认为,应采用因果关系推定制度。首先,诚如前述,在强人工智能下,产品缺陷和医疗损害之间的因果关系更难证明,甚至无法建立联系,单纯降低证明标准已无济于事。其次,在医患失衡加剧的背景下,因果关系推定制度更有利于保护作为弱者的患者,而且设计者、生产者等相对来说更有能力进行因果关系举证。

3.产品强制责任险和赔偿基金的建立

产品责任本身即为无过错责任,加之因果关系推定规则的适用及免责事由的调整等,产品责任的风险显著增加,为避免抑制创新,应设置产品强制责任险,进行风险的社会化分散,可考虑让产品的设计者、生产者、销售者及所有者按照风险高低适当分担保费。设置产品责任险也具有内在正当性。其一,医疗产品责任是强人工智能下行业普遍面临的风险,设计者、生产者都无法完全控制风险,因而有动力和意愿分散风险,有较为广泛的社会基础;其二,通过强制保险对受害患者这一弱势群体进行充分、及时的赔偿,本身即是对公共利益的维护;强人工智能使整个社会受益,应当实现风险的社会化分散。此外,应设立赔偿基金,作为医疗产品强制责任险的补充,确保未被保险覆盖的群体在损害发生时获得必要的补偿,基金经费可通过税收、处罚、捐赠、保费等渠道筹措。《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》亦指出:“基于对日益自动化的机器人造成的损害承担责任的复杂性,有必要推动建立一项强制性的保险计划,就像在汽车行业已经发生的那样,不过,与道路交通强制保险制度不同的是,交强险涵盖了人类的行为和失败,而机器人的保险系统应该考虑到供应链中的所有潜在责任人。此外,如同汽车行业,这样的保险制度可以由一个基金来补充,以确保在没有保险覆盖的情况下,可以对损失进行赔偿”[17]。

五、结 语

人类已逐步进入人工智能时代。人工智能技术正在加速发展和落地,且已成为各国竞争的战略制高点。当然,人工智能在为人类带来巨大利益的同时,也带来不少风险。医疗是受人工智能技术影响最广泛最深刻的领域之一,人工智能正悄然改变着医疗决策的过程和结果,改变着医患之间的实力对比,也改变着医疗损害赔偿的救济方式和难度。为有效平衡各方利益及保障医疗人工智能技术的可持续发展和平稳创新,我国有必要对现行医疗损害责任规则进行适当调整。在弱人工智能下,应于《侵权责任法》第58 条增加过错证明的法定推定事项,降低因果关系的证明标准,对医疗产品责任的主体进行相应调整,设置缺陷证明的法定推定事项,并对免责事由进行有针对性的调整;在强人工智能下,应采行过错和因果关系的推定制度,并通过设置医疗强制责任险、医疗产品强制责任险及赔偿基金对受害患者进行充分、及时的赔偿,实现风险的社会化分散。

注:

①我国已在立法上统一使用“医疗损害责任”的概念,这一概念更加直观、中性,容易被社会各界接受,能够概括所有的医疗侵权行为,终止医疗侵权概念、案由和法律适用上不统一的局面。根据杨立新教授的研究,我国《侵权责任法》第七章“医疗损害责任”共包括4种类型,即医疗技术损害责任(第57、58 条)、医疗伦理损害责任(第55、62 条)、医疗管理损害责任(由一般条款第54 条派生)和医疗产品损害责任(第59 条)。其中,前三者为过错归责,本文为论述方便,将此三者合称为“医疗侵权责任”,并与无过错归责的“医疗产品责任”相对应。相关论述可参见:杨立新.医疗损害责任概念研究[J].政治与法律,2009,(3):18-30;杨立新.医疗损害责任一般条款的理解与适用[J].法商研究,2012,(5):65-71.

②《侵权责任法》第54 条:“患者在诊疗活动中受到损害,医疗机构及其医务人员有过错的,由医疗机构承担赔偿责任。”

③例如,欧盟议会法律事务委员会发布的《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》第39 条规定:“考虑到尊重机器人的监督自主原则是至关重要的,因此最初的治疗计划和关于执行的最终决定将始终是人类外科医生的决定。”我国国家卫计委发布的《人工智能辅助诊断技术管理规范(2017年版)》 第3 条规定:“人工智能辅助诊断技术为辅助诊断和临床决策支持系统,不能作为临床最终诊断,仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定。”《人工智能辅助治疗技术管理规范(2017年版)》第3 条亦规定:“人工智能辅助治疗技术的临床应用应当由2 名以上具有人工智能辅助治疗技术临床应用能力的副主任医师及以上专业技术职务任职资格的本医疗机构注册医师共同决定,制订合理的治疗与管理方案,术者由本医疗机构注册医师担任。”

④《产品质量法》第41 条:“因产品存在缺陷造成人身、缺陷产品以外的其他财产(以下简称他人财产)损害的,生产者应当承担赔偿责任。生产者能够证明有下列情形之一的,不承担赔偿责任:(一)未将产品投入流通的;(二)产品投入流通时,引起损害的缺陷尚不存在的;(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。”

⑤《侵权责任法》第58 条:“患者有损害,因下列情形之一的,推定医疗机构有过错:(一)违反法律、行政法规、规章以及其他有关诊疗规范的规定;(二)隐匿或者拒绝提供与纠纷有关的病历资料;(三)伪造、篡改或者销毁病历资料。”

⑥《医疗纠纷预防和处理条例》第7 条:“国家建立完善医疗风险分担机制,发挥保险机制在医疗纠纷处理中的第三方赔付和医疗风险社会化分担的作用,鼓励医疗机构参加医疗责任保险,鼓励患者参加医疗意外保险。”

⑦《基本医疗卫生与健康促进法(草案)》第44 条:“国家完善医疗风险分担机制,鼓励医疗机构参加医疗责任保险或者建立医疗风险基金,鼓励患者参加医疗意外保险。”

猜你喜欢

证明规则责任
撑竿跳规则的制定
获奖证明
数独的规则和演变
判断或证明等差数列、等比数列
使命在心 责任在肩
每个人都该承担起自己的责任
让规则不规则
TPP反腐败规则对我国的启示
证明我们的存在
期望嘱托责任