王轶晗四川大学法学院博士研究生,美国埃默里大学联合培养博士研究生;
王竹四川大学法学院教授,博士生导师。
内容摘要
人工智能暂处于“前奇点阶段”,随着人工智能在医疗领域的广泛应用,由其引发的侵权案件数量逐年递增。但现阶段人工智能主客体定位尚不明晰、侵权事实与法律规范之间无法形成有效涵摄,医疗人工智能侵权责任认定陷入困境。单独适用产品责任、医疗技术损害责任抑或高度危险责任,均无法为医疗人工智能侵权责任提供准确的归责模型。破题之道,应在肯定医疗人工智能法律客体地位的基础上,对现行法律进行最小化与程序化改造,从而通过适用经改造的产品责任、医疗损害责任与个别适用高度危险责任完成医疗人工智能侵权责任的承担。同时,将设立医疗人工智能实质性审查机构、建立沙箱区域、改革医疗质量安全事件报告数据库、试行国家先行赔偿等事前、事中、事后措施作为医疗人工智能侵权的制度去障,以期实现“善治”与“善智”的良性互构
关键词:前奇点阶段医疗人工智能产品责任医疗损害责任高度危险责任
一、引言
自上世纪以降,人工智能的物化成果被广泛应用于疾病诊断、微创手术、康复治疗、医院服务等领域,百年医疗掀起了巨变。
20世纪50年代中期至70年代中期被认为是人工智能的第一次浪潮,1972年,由利兹大学研发的全球首个医疗人工智能——急性腹痛辅助诊断系统(AAPHelp)诞生。以此为标志,人工智能被引入了医疗领域。第二次浪潮肇始于80年代初,以基于规则的专家系统的研发为特征。在这一阶段,用于评估心电图的自主诊断设备问世。1985年,可编程通用装配560机器人(PUMA560)辅助医生进行神经外科活检手术,完成了首例有机器人参与的外科手术。21世纪初期,杰弗里·辛顿(GeoffreyHinton)的深度学习网络掀起了第三次人工智能浪潮。人工智能运用误差反转算法建立人工神经网络,进而生成医疗气象预测模型,为不同病种的医疗气象预报提供科学参考。其在医疗领域的深度应用极大程度地提升了手术的精细度,扩大了医生的术野,令医疗活动的可视性以及可达性取得了颠覆性突破。
二、前奇点阶段的发生及展开
一世纪,一甲子,英国作家查尔斯·狄更斯(CharlesDickens)笔下“最好亦是最坏的时代”似乎可将当下的人工智能时代描述得恰如其分。
谓之“好的时代”,是由于人工智能技术循摩尔定律(Moore’sLaw)不断迭代更新,人工智能企业竞逐争锋,与日俱增的技术水平与实用潜能令众多垂直产业随之受益,人类的生活水平得到提高的同时,也享受到了前所未有的便利。以自动驾驶汽车、人脸识别支付、人工智能辅助审判系统、外科手术机器人等为代表的一系列人工智能技术物化成果,扩大了人类活动的范围、提高了人类工作的精度,解放了劳动力、节约了人力资源成本。人工智能技术作为新的技术驱动力,已然成为第四次工业革命的典型代表。
谓之“坏的时代”,其缘由在于人类有可能成为“技术进步超过技术社会控制趋势”的受害者。申言之,人工智能以突破人类线性视角的指数速度发展,在如此不停歇的指数级发展过程中,人类生存将受到人工智能威胁。人工智能所进行的递归式自我改善的结果便是出现奇点,即人工智能超越人类智能的时代临界点。而与可能导致世界死寂的熵增原理不同,人工智能奇点的到来甚至可能发生在本世纪。谷歌工程总监库兹威尔(RayKurzweil)预言,人类智能将在2045年之前被人工智能超越。而从先驱者优势理念出发,此时的超级人工智能有很大概率会发生“背叛转折”,进而对存在于地球之上的智能生命造成巨大的存在性危险。
三、前奇点阶段医疗人工智能侵权认定的困境
(一)数据背景——医疗人工智能侵权案件涌现
纵观世界,域外的人工智能技术不论是在起步还是后期的发展阶段,均处于领先地位。但从1978年日本广岛摩托车厂的工作机器人伤人到1989年机器人电流致苏联象棋冠军死亡,再到近年来频发的自动驾驶汽车事故,人工智能侵权案件的数量正在增加。英国仅在2005年一年之中发生的机器人致害事故就高达77起。而医疗人工智能侵权也随着医疗人工智能的临床化呈现出上升的趋势。如2002年,美国佛罗里达州一名患者在使用达芬奇(DaVinci)手术机器人进行肾脏手术的过程中因主动脉意外割破而死亡。美国的外科手术机器人在2000年至2013年间,至少造成了1391起致害事件,并导致144人死亡。
就我国而言,国内医疗机构中亦存在着相当数量的进口以及自主设计生产的医疗人工智能设备,典型如浙大一院的达芬奇机器人,其单机手术量以及手术密度曾多次称冠全球。同时,诸多自主研发的医疗人工智能成果已经问世,如“黎元”“妙手”“天玑”等机器人系统。截至2017年10月,医疗人工智能公司融资额已超过260亿元。国务院印发的《关于促进“互联网+医疗健康”发展的意见》《新一代人工智能发展规划》,以及科技部出台的《“十三五”卫生与健康科技创新专项规划》等文件均提出了大力发展医疗人工智能的要求。综观之,我国已处于医疗人工智能的风口。
(二)逻辑判断——人工智能法律地位定性模糊
探讨医疗人工智能侵权的法律问题,首先应当解决的是由谁来承担责任。若要对这一问题作出回应,需对医疗人工智能体的法律地位归属作出逻辑选择。
正本清源,法律主体从“人可非人”逐渐演化为“非人可人”。而人工智能系各种“有限感性”与“有限理性”相互叠加、往返激荡的产物。人工智能的极速发展,正在倒逼学界重新研判法律人格制度,对人工智能体的法律地位进行正面回应。综观域内外学者关于人工智能法律属性的观点,主要包括工具说、拟制法律人格说、有限法律人格说、人格减等说、动物说等。其中,拟制法律人格说、有限法律人格说以及人格减等说倾向于人工智能“人”之属性,即主体;而工具说、动物说则倾向于人工智能“物”之属性,即客体。经逐一剖释,以上各学说均在一定程度上无法自圆其说,主要体现在:
另一方面,就“动物说”而言,针对医疗人工智能,如继续沿用“动物”视角,将始终无法回答“智能化”的问题。人工智能体能够基于预设算法进行创造,系人类创设的延伸范畴,其在脱离生产者嗣后的经历将对智能体产生极大影响,与一般的动物极为不同。另外,人工智能不可预测性的产生机理也与动物大相径庭,动物是出自于生理性格,而人工智能则是基于算法规则。因此,“动物说”在逻辑上无法自洽。
实务中对于人工智能法律地位的认定同样存在着分歧。如2016年1月发生的首起特斯拉自动驾驶汽车交通肇事致死一案,死者家属对特斯拉中国区销售公司提起诉讼。特斯拉方主张事故中的自动驾驶汽车为驾驶工具,无法全权代替和承担驾驶员的作用与职责,司机仍需对汽车负责。但是,法院对于处于自动驾驶状态下的特斯拉汽车的法律地位认定,至今仍未有明确结果。同年,谷歌公司的自动驾驶汽车在美国加利福尼亚州发生交通事故。美国国家高速公路交通管理局于2016年2月公布了致谷歌公司的一封信,信中表示谷歌无人驾驶系统可以被视为司机,在法律上与人类驾驶员相同。美国的沃森医疗人工智能系统在对患者造成损害后,被认定为雇员而不是医疗器械,由医院承担替代责任。
(三)法律适用——侵权事实与法律规范之间涵摄失灵
医疗人工智能侵权责任的承担,需要以法律为依据。但是,由于医疗人工智能的定位模糊,医疗人工智能侵权事实无法与现行法律规定形成有效涵摄。医疗人工智能侵权在适用现行法律法规时,不论以产品责任、医疗技术损害责任、高度危险责任加以苛责,均存在无法消弭的问题。
一方面,根据我国民法典第1202条的规定,产品责任的构成要件有三。分别为产品存在缺陷、缺陷产品造成损失、缺陷产品与损害事实之间存在因果关系。相较于损害事实与因果关系,如何证明产品存在缺陷是最为困难的。产品质量法第46条对缺陷产品进行了二元界定,即产品存在“不合理危险”或产品“不符合国家、行业标准”,前者是一般标准,后者是法定标准。
通过医疗技术损害责任来解决医疗人工智能侵权问题,主要存在以下三个方面的理论障碍:
其一,法律地位定性。民法典第1221条将医务人员确定为医疗技术损害的行为主体,正如上文所述,医疗人工智能(如达芬奇手术机器人、智能诊断器具等)是否可以与医务人员等同进而具备法律主体身份,始终悬而未决。若责令医疗机构承担用人单位的替代责任,颇显牵强。
其二,医患关系的确定。若然医疗人工智能系具备独立人格的法律主体,同时亦可以被视为医务人员,但在对医疗人工智能进行苛责之前,仍需明确其与患者之间能否形成真正的医患关系。在英美法中,咨询医生并不属于医疗技术损害责任的主体,而部分医疗人工智能(如智能诊断器具)所扮演的正是咨询医生的角色,其本身并未参与诊疗过程,只是提供一种基于数据分析而呈现的非正式意见,更不可能与患者之间形成所谓的医患关系。由此,不同类别的医疗人工智能本身特性、行为以及诊疗参与程度各不相同,与患者之间形成的关系亦不可一概而论。
其三,过错情况的判断。民法典将医疗技术损害责任确定为过错责任。因此即使确认了医疗人工智能与患者之间形成了医患关系,对于医疗侵权损害而言,仍需要回溯事故原景去判断过错的有无及过错的程度。区别于普通的医疗事故,仅依靠“诊疗规范”“当时的医疗水平”等通常标准对医疗人工智能是否存在过错进行判断恐有不妥。为此,有学者建议可以将人类所能达到的最高诊疗水平作为标准。但此种人机比较,直接将医疗人工智能与人类医疗技术巅峰等量齐观,是否合理?亟需进一步探讨。
首先,高度危险责任以不可预测性为典型特征,理性的人即使尽到了合理注意义务,往往也难以避免由于事务本身的危险性造成的损害,这恰与医疗人工智能的特性如出一辙。其次,民法典中的高度危险责任体系由三类规定构建而成,即包括一般式、列举式以及兜底式规定,从体系上来看,兜底式规定为医疗人工智能侵权这类新型侵权责任类型预留了适用空间。但是,医疗人工智能适用高度危险责任规则仍需解决两个问题。一方面要在高度危险物致损责任与高度危险作业致损责任的判断上进行明确,二者共同构成高度危险责任,但医疗人工智能侵权属何种情形,尚不明晰。另一方面要解决自己责任的排他性问题,高度危险责任系自己责任。因此,若医疗人工智能侵权为高度危险责任,则该智能体的占有人、使用人、活动经营者为责任主体,医疗机构难咎其责,但在自己责任的排他模式下,生产者无需担责,显然不尽合理。
四、前奇点阶段医疗人工智能侵权的法律因应
(一)定性——明确医疗人工智能的客体地位
Bloom理论中的认知要素
沃森模仿人类解决问题的步骤
识记
(1)存储更新医疗数据
(2)筛选医疗数据
(3)创建索引或知识图谱以摄取内容
理解
(4)向人类专家学习
(5)继续学习
(6)确定问题
(7)产生鉴别诊断假设
应用
(8)寻找证据支持或反驳假设
(9)对每一项加权证据进行统计建模
分析
(10)分析证据
综合
评价
表1沃森与人类认知程度的对比
通过上表的逐项比较可知,沃森的认知程度在部分关键节点上存在缺失。其无法基于模仿人类解决问题的10个步骤,来独立完成问题模型的“综合”“评价”模块。这也意味着,沃森无法在医疗诊断过程中作出关键判断及确定最终行动方案、结论。尽管其处理数据、分析问题的能力极强,但其缺乏批判性的思维以及促进产生这种思维所需的更高层次的认知。另外,对各类数据内在价值背后的伦理思考,也无法展开建模分析,面对决定方案所需的多重信息交互,很难作出相应的价值排序,从而影响到“综合”及“评价”。加之前文所述,就“责任能力”而言,暂无法预设人工智能拥有自己的财产,缺乏相应的“物质基础”,即不能独立承担责任,这便否定了其成为法律主体的可能。综上,基于对沃森与人类认知程度的对比以及人工智能责任承担的分析,当前的医疗人工智能属医疗器械,即辅助人类开展医疗活动的智能工具。因此,医疗人工智能仍属于法律客体的范畴。
(二)因应——法律制度布局及具体规则构建
鉴于前奇点阶段人工智能侵权的现状,宜以现行产品责任与医疗损害责任的规定为基础,施以最小化与程序化改造,根据不同侵权情形在产品责任、医疗损害责任以及高度危险责任之间进行选择适用,这亦是当前措置医疗人工智能侵权问题的择优之选。具体的规则模型设计如下:
1.产品责任的承担
若经法院确认,医疗人工智能侵权系其缺陷所致,则应由该医疗人工智能的生产者承担产品责任。
首先,厘清生产者的外延。基于加强受害者保护的考量,结合前奇点阶段医疗人工智能所呈现的发展态势,宜对生产者的外延作广义解读,诸如产品的直接生产者、零部件生产者、进口商以及表见生产者等均应当被归类为生产者范畴。其中,零部件生产者并非必然以生产者身份承担责任,需要判定其在产品生产过程中是否“实质性参与”,如产品的关键设计、产品重难点技术攻克等。将进口商认定为生产者是基于医疗人工智能产品本身的跨国域特点考量。就我国而言,在医疗机构目前广泛使用的医疗人工智能产品中,进口仪器仍占据较大比重。从国外到国内的层层移转,无疑加重了判定产品生产者的难度。同时,即便有明确的海外生产者,本就居于弱势地位的受害者如若求偿,甚至还需提起跨国诉讼,诉讼成本被无限扩大的同时受偿难度也极大增加。表见生产者,即产品由一方主体进行实际制造,但产品的外在标识,诸如名称、商标等,由另一方主体进行标注,标注指向即为表见生产者。将表见生产者归类为生产者同样是基于受害者利益的考量。
复次,引入“消费者的合理预期”,并将其作为认定产品缺陷的标准之一。对德沃金(RonaldDworkin)等新自然法学派代表所主张的“消费者期待标准”在医疗人工智领域进行适当改造,以患者群体在选择接受医疗人工智能产品诊疗活动的一般性认知作为预期模型,事故发生超过合理预期即视为存在“不合理危险”。对生产销售说明及实际呈现效果进行对比,加强对患者的保护。但是,此标准在司法适用上的自由裁量空间较大,且由于加入了患者的主观预期,须谨慎判断。
再次,在医疗人工智能侵权领域应当排除“最近规则”的适用。民法典第1223条显然增加了医疗机构的风险及负担,建议赋予医疗机构在无过错情形下的抗辩权,受害患者应径行向产品生产者主张赔偿。医疗机构仅需在患者求偿过程中提供必要的协助,如提供必要的证明材料等,而非承担责任后向生产者追偿。
最后,明确医疗人工智能产品出租人对租赁物的瑕疵担保责任。近年来融资租赁为对高值医疗器械具有较高需求但囿于自有资金不足而无法引进设备的医疗机构提供了契机。根据民法典第747条、第749条的规定,出租人无须就租赁物承担瑕疵担保责任,但具有例外情形,即如果出租人对于租赁物的选择施加了某种影响力,或出租人在明知租赁物具有质量瑕疵时,不告知承租人的,出租人仍需承担相应的瑕疵担保责任。
2.医疗损害责任的承担
若经法院确认,医疗机构在使用医疗人工智能开展诊疗活动的过程中存在组织过错的,患者受到的损害,应当由医疗机构承担赔偿责任。
民法典将医疗损害责任的责任主体确定为医疗机构,责任性质系替代责任。但替代责任已然无法完全适应现代医疗责任体系的需要,在医疗人工智能领域更是如此。患者的诊疗过程实属医疗机构的一项系统性活动,是复数医务人员共同协作的联通结果,呈现出分工配合的治疗组织样态。因此,为减轻患者的举证责任,应当通过组织过错责任这种形式来明确医疗机构所负责任的属性。患者仅需就最后的受害结果系医疗机构一方所进行的医疗活动所造成,且未达到应当具备的治疗水平进行证明,即完成举证。无需就诊疗过程中的某一节点或是医疗机构在对医务人员的选任、培训等方面具有过失的具体情形进行举证。此外,医疗人工智能的法律地位并不影响其适用组织过错责任,即使将来赋予人工智能法律主体资格,组织过错责任仍具有适用空间。就组织过错而言,主要包括以下三个方面:
(1)技术类组织过错
如向医疗人工智能提供错误指引,包括输入未经审核的瑕疵医疗数据、组织示范不当致使系统紊乱、强行干预学习过程影响其深度学习等;医务人员未严格按照诊疗规范对设备进行消毒导致患者感染,或错误操作造成患者损害;医疗机构未对医务人员开展充分的培训、未建立起行之有效的考核机制开展考核工作等。(2)伦理类组织过错
如在使用医疗人工智能开展医疗活动之前未向患者或其近亲属充分释明选择人工智能的原因、使用过程中存在的潜在风险及可能造成的不良后果、人工智能所能达到的技术水平,以及医疗人工智能有可能存在的算法偏见等。(3)管理类组织过错
如未能采取有效手段保管医疗人工智能黑匣子,无正当理由拒绝患者的查询请求,未能建立起对医疗人工智能设备的定期保养机制,未能合理管理人工智能导诊员、搬运机器人、分药机器人等非临床人工智能造成损害,未能提供可靠的后勤管理保障,如网络防火墙虚化、备用电路不稳定等。
3.产品责任与医疗损害责任的结合
如果缺陷人工智能产品与医疗机构的组织过错共同造成患者的同一损害,则由产品的生产者与医疗机构承担不真正连带责任。生产者或者医疗机构承担赔偿责任后,向对方追偿的,应当根据医疗行为与缺陷医疗人工智能产品造成患者损害的原因力大小确定相应的数额。
如果无法评估患者的损害系产品缺陷造成抑或医疗机构的组织过错导致,则参照适用关于共同危险的规定,由产品的生产者与医疗机构承担连带责任。但是正如前文所述,应当排除“最近规则”的适用,即患者需优先选择对生产者,或者同时对生产者及医疗机构提出赔偿请求,而不得单独向医疗机构提出。基于风险利益一致性分析,生产者已经通过销售行为获得了利益的圆满状态,就日后的医疗事故赔付也可通过销售价格的涨幅实现部分成本的转移分担。但对于医疗机构而言,其购买的设备价值仍待在后续的医疗活动中实现,获得利益的状态一直在持续,直到设备报废或再次移转为止。因此,从受益程度分析,生产者的获利状态已经完成,风险应由其来承担。
对于免责事由,宜采纳“补充说”。即生产者或者医疗机构能够证明损害结果与自己行为无关时可免责。但是,如果受害人未能在其他连带责任人处获得足额受偿,上述免责一方仍需要在受害人未获偿的范围内承担补充责任。如此设计,一方面对承担连带责任的主体范围进行了限缩,减轻了非实际致害人的赔偿压力,另一方面,通过补充责任的设计来填补受害人的损失,确保了受害人能够得到足额受偿。
4.高度危险责任的个别适用
五、前奇点阶段医疗人工智能侵权的制度去障
为实现“善治”与“善智”的良性互构,不仅需要法律制度的未雨绸缪,医疗人工智能其他配套制度也应曲突徙薪。除建立人工智能责任保险、智能基金制度外,还需在医疗人工智能侵权的事前、事中、事后三个环节作出制度安排。
(一)事前制度
1.制定医疗人工智能国家、行业标准
2.设立医疗人工智能审查机构
《医疗器械监督管理条例》规定,对我国的医疗器械按照类别进行备案管理与注册管理。第一、二、三类医疗器械的管理部门分别为备案人所在地设区的市级人民政府食品药品监督管理部门、申请注册人所在地省、自治区、直辖市人民政府食品药品监督管理部门以及国务院食品药品监督管理部门。2015年,我国根据《工业机器人关键技术产业化实施方案》于上海建立了国家机器人检测与评定中心以及国家机器人质量监督检验中心。但是,国家机器人检测与评定中心的主要工作为对机器人整机性能与安全试验等进行评估和检测,以物理安全为主,并不涉及对人工智能产生的各环节进行审查。因此,就目前我国医疗器械与人工智能的监管现状而言,缺少对医疗人工智能进行专业化、实质性审查的机构。为了保障医疗人工智能的良性发展与患者的生命健康,亟待建立专门的医疗人工智能审查机构对于器械进行实质性审查。
(二)事中制度
1.配置黑匣子
“黑匣子”主要用于记录飞机数据,现被学者广泛建议应用于人工智能领域,记录人工智能的工作情况。对于医疗人工智能而言,黑匣子尤为重要,它是确保医疗数据可追溯的关键设备,在利用人工智能器械对患者进行诊疗的过程中,需要保证这一医疗活动记录仪的配备与正常运作。而这需要生产者与医疗机构完成如下义务:首先,黑匣子的装置应当与医疗人工智能器械实现“三同时”,即同时设计、同时制造、同时投入使用,由生产者负责。其次,医疗机构在对患者实施诊疗前,应对人工智能器械进行必要维护与检查,确保黑匣子的正常记录功能。
2.建立沙箱区域
将医疗人工智能置于开放的网络环境中从事医疗活动,会放大医疗设备本身的脆弱性。如起搏器、除颤器等设备较容易受到黑客攻击。医疗数据面临被窃取滥用的风险,医疗人工智能甚至有可能被操纵,而这均将对正常的医疗活动秩序与患者的生命财产安全造成不赀之损。因此,建议建立医疗人工智能沙箱区域。保护医疗人工智能的关键程序在医疗活动中得以正常运行,而不受外部的干扰与破坏。
(三)事后制度
1.改革医疗质量安全事件报告数据库
2.成立人工智能鉴定委员会
由于行业与技术壁垒,我国既有的产品质量鉴定机构、医疗鉴定机构与司法鉴定机构无法胜任医疗人工智能器械的鉴定工作,而科学准确的鉴定报告对于法院判断致害原因举足轻重,同时也直接影响到受害者的获偿结果。因此建议成立医疗人工智能鉴定委员会,其组成人员可包括:具备在人工智能领域工作若干年限的经历和较强专业技能的技术专家、产品质量技术监督部门干部、临床医学专家、法医学专家等。
3.设定人工智能赔偿上限
为了限制医疗人工智能产品侵权责任对于企业造成的寒流效应,同时鼓励医疗机构引进人工智能器械,可为医疗人工智能侵权赔偿数额设定上限。如澳大利亚昆士兰州的民事责任法所规定的赔偿上限即可扩展到人工智能领域。在美国,亦有学者提出,包括沃森在内的医疗人工智能应像医疗事故制度下的医生一样受到保护,包括对其赔偿责任进行限制。
4.试行国家先行赔偿
由于赔偿限额的设定,受害者有可能面临着无法得到充分救济的风险。因此,在赔偿限额以外,可由国家赔偿进行补充。对于赔偿能力不足的中小人工智能企业,国家可先行对受害者给予赔偿,俟医疗人工智能产业臻于成熟后,通过向生产企业征收追溯性保险费用的途径逐渐实现风险的社会化。这样的做法并非个例,在比较法关于高度危险设施的责任承担中可找到类似的制度设计,如美国对于核设施发生核事故造成他人损害,实行由核能管理委员会对受害者进行先行赔偿,然后向持有经营核设施许可证的企业收取追溯性保费的措施,每个企业根据其拥有的反应堆数量支付相应的数额。
结语
原标题:《王轶晗王竹:前奇点阶段人工智能侵权责任研究——以医疗人工智能为视角》