杭州师范大学沈钧儒法学院,浙江杭州
收稿日期:2023年12月26日;录用日期:2024年1月16日;发布日期:2024年3月13日
摘要
随着人工智能产品种类的增多、应用范围的扩大,各类人工智能侵权案件层出不穷,人工智能侵权归责问题亟待解决。人工智能的拟人性特征导致现阶段人工智能法律地位颇具争议,产生了肯定说、否定说和折中说三种学说,折中说破坏了现行民法的基本理念,而人工智能技术发展初期,贸然赋予人工智能主体地位不会产生实际效应,明确人工智能是权利义务的客体,才是技术发展和权利保护的要求;其次,适用产品责任解决人工智能侵权问题具有合理性,人工智能产品的生产者、设计者应当承担无过错责任;但产品责任无法合理分配人工智能产品使用人的责任以及特殊类型的侵权案件责任,对此笔者认为在现阶段人工智能的使用人应承担过错责任,但在无人驾驶等特殊领域使用人应承担无过错责任。在人工智能领域特殊类型侵权的归责问题,则要引入公平责任,以此来保护受害者的权益。
关键词
人工智能,产品责任,生产者,设计者
ResearchonLegalIssuesofArtificialIntelligenceInfringement
YeruWang
SchoolofShenJunRuLaw,HangzhouNormalUniversity,HangzhouZhejiang
Received:Dec.26th,2023;accepted:Jan.16th,2024;published:Mar.13th,2024
ABSTRACT
Keywords:AI,ProductLiability,Producer,Designer
ThisworkislicensedundertheCreativeCommonsAttributionInternationalLicense(CCBY4.0).
1.引言
2.人工智能侵权概述
“人工智能”这一概念于1956年首次提出,当时其定义是“制造智能机器的科学与工程”。随着科学技术的不断发展,人工智能的定义逐步扩大,目前,人工智能的定义尚没有统一的定论,专家学者从各自专业角度出发,对人工智能有不同的见解。总结来说,“人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学”[2]。
2.1.人工智能侵权的主要特征
一是人工智能的拟人性。人工智能侵权不同于传统侵权,其侵权主体具有拟人化的特征。人工智能技术的本质就是通过模拟人脑来进行记忆、学习和互动,甚至拥有与人类智慧不相上下的机器智能。因此,人工智能侵权和人类侵权行为极为类似;二是侵权责任认定的复杂性。人工智能侵权行为实施过程中涉及设计者、生产者、使用者与被侵权对象等主体。一旦发生人工智能侵权,归责原则和责任承担主体具有高度复杂性,很难用单一的法律规范对人工智能侵权责任认定进行规制,需要完整的规范体系对这一问题进行调整。
2.2.人工智能的法律地位
科技的发展使人工智能越来越趋近于“人”,与此相对应的法律挑战是人工智能在法律关系中的地位是客体还是主体。不同的法律地位对应着不同的纠纷规制方式,因此明确现阶段人工智能的法律地位是探讨人工智能侵权法律问题的前提。
对该问题当前法学界主要有以下三种观点,分别是肯定说、否定说和折中说。
肯定说认为,可以赋予人工智能以法律主体地位。人工智能具有主体地位的论证主要分为两类:一类是将人工智能类比为自然人。人工智能可以不断进行自我学习,可以脱离人类的控制,独立自主地作出行为,拟人性成为最大的特性;另一类是将人工智能类比为法人和非法人组织[3]。人工智能与公司法人某些方面有类似的特征,比如两者都是由自然人“出资”制造出来的,理所应当具有一样的权利能力和行为能力。否定说认为,人工智能是民事法律关系中的客体,其不过是人类在生产、生活过程中所使用的比较先进的辅助工具。不论其发展到什么程度也不能改变人类的主导地位,人工智能始终是物,是人造机器。
折中说认为,从认知能力角度看,人工智能的地位已经超越了物的范畴,但从起作用角度看,人工智能依然未能摆脱为人类服务的工具角色,还处在物的范畴之中。因此折中说既不完全肯定也不完全否定人工智能体的法律人格,而是看作是“电子奴隶”[4]或“电子人”[5]。折中说的缺陷是违反了人与物两分的基本理念与基本规则,折中说貌似是在肯定说与否定说之间找到了一种平衡,但却打破了现行民法的基本理念与基本规则。现行民法认为市民社会的基本构成只有人和物两种形式,人是主体,物是客体[6]。因此凡是主张人工智能既有人的属性又有物的属性,或者主张人工智能是人与物之外的第三种物质,都为现行民法所不能容忍,因为前者模糊了人与物的基本界限,后者则创造了第三种物质。因此笔者不赞成折中说,认为应当结合人工智能的发展阶段来看采用肯定说或者否定说。目前正处于从弱人工智能到强人工智能的转变阶段,而超人工智能只存在于科幻电影之中,应当适用否定说,没有采用肯定说的必要性有效性和可能性。
有学者提出“法律关系主体与客体的区分依据并非局限于是否拥有生命、是否拥有独立意志,而应当重点衡量有无必要赋予主体资格”[6]。人工智能技术确实是取得了很大的进步,但还没到为之大肆修改法律的地步,正如有学者指出的“面对人工智能技术的发展,用现行民法的基本理念和基本原则进行适当调整,就能够解决其所带来的问题”[7]。尤其是现行民法中的产品责任在人工智能侵权案件中有很强的适用性。
从有效性角度来看,赋予人工智能主体地位并不是有效的权利规制方式。在私人权利盛行的时代,所有权制度是最全面的权利利用方式,所有权人可以对人工智能行使占有、使用、收益、处分的权利,其完整性超越其他任何一种财产权[8]。首先,承认生产者对人工智能的所有权,使其对人工智能的权利最大化,可以激励生产者者不断改进和提升人工智能技术,开发人工智能技术的多种利用途径。其次,对使用者来说,法律赋予权利的同时也赋予权利人谨慎行使权利的义务,使用者在使用人工智能的过程中必然提高警惕避免产生额外损失。人工智能在具备人类意志和独立财产之前,仍要依靠具体的自然人行使权利、履行义务,过早赋予人工智能法律主体资格可能导致实际责任主体享有权利后把责任推给人工智能这一法律主体[9]。因此,人工智能技术发展初期,明确人工智能是权利义务的客体,是技术发展和权利保护的要求。
笔者认为在人工智能法律地位这个问题上当前阶段应该采用的否定说,否定人工智能的主体地位,尽可能的保障法律的稳定性。但人工智能毕竟不同于普通的物,我们应当在守正与创新之间做好平衡,下文将讨论在否定人工智能主体地位的前提下,人工智能侵权案件的担责主体及归责原则。
3.产品责任制度规制人工智能侵权的具体路径
当前正处于从弱人工智能到强人工智能的转变阶段。尽管人工智能技术的进步速度让人惊叹,当下的人工智能在人类活动过程中扮演的仍然是“工具”的角色,并未超越人类所定义的“物”之范畴,仍然处在人类的掌控之中[11]。在人工智能产品的侵权案件中,将人工智能定位为被人们生产、使用和消费的“产品”,考虑适用我国现行法律体系中的产品责任更为合适。
人工智能产品能否纳入到产品责任法中的产品范畴,对于这个问题我国立法没有明确规定,学界也存在不同的观点。判断人工智能产品能否纳入产品范畴,需要探究“产品”的概念及其外延。《产品质量法》第2条第2款规定:“本法所称产品是指经过加工、制作,用于销售的产品。”绝大多数的人工智能是为了参与流通即用于销售而生产出来的,从此方面来说人工智能产品符合《产品责任法》第2条规定的“经过加工、制作”“用于销售”要件,正中产品范畴。
3.1.生产者的责任
在追究生产者在人工智能侵权领域中的责任时,人工智能产品本质上与普通产品并无区别,没有涉及到人工智能产品的特殊性,因此能够直接纳入产品责任的范畴,适用《民法典》侵权责任编第1202条规定的无过错责任。
首先,适用无过错责任有助于提高人工智能产品的安全性,无过错责任要求不论生产者或销售者有无过错均应承担因人工智能产品缺陷导致的全部损害赔偿责任,这可以促使生产者或销售者尽其最大努力来降低产品缺陷的概率。从另一个角度讲,缺陷对于个人来说是不可预测的随机事件,但对于企业来说是可以预见的,生产者可以通过数据分析,计算侵权案件的发生概率及赔偿金额,将其作为“预计负债”计入人工智能的生产成本,进而分散转移至每一位产品使用者身上。无论采取什么样的政策都不可能彻底消灭产品缺陷,但适用过错责任不仅可以最大限度的降低缺陷的概率,还能进行有效的风险责任分担。其次,适用无过错责任能提高司法效率,降低司法机关审理人工智能侵权案件的难度。如果采取过错责任,在人工智能产品侵权案件中受害者需要举证证明生产者在人工智能产品的生产过程中存在过错。但由于人工智能产品的非透明性,受害者基本不可能打破人工智能产品生产的技术壁垒来证明生产者存在过错[12]。因此从司法实践方面来说采用无过错责任才是明智之举。
3.2.设计者的责任
《民法典》产品责任中承担责任的主体仅涉及生产者、销售者、运输者、仓储者等第三人,没有直接规定设计者的责任。由此引出第一个问题设计者是否应当承担责任?对于这个问题,学界存在两种观点,主张设计者不担责的学者认为,基于人工智能的技术特性采用“技术中立”原则,技术自身一般不产生责任,技术侵权不适用产品责任的有关规定。具体而言,针对人工智能技术自身引起的侵害,设计者不承担责任,除非该技术的最初目的即是侵权或违法[6]。技术中立原则能最大限度的保护设计者,促进人工智能这一新兴产业的发展。但是该观点存在的问题是,“技术中立”原则排除产品责任的适用,认为技术不能包含在产品之中,针对人工智能技术自身引起的侵害,生产者、销售者均不承担责任,这样就会导致被侵权人丧失救济途径。
笔者赞同设计者应当承担责任的观点,毕竟人工智能产品属于高科技产品,在人工智能的诞生过程中往往存在相对独立的设计者和制造者。在人工智能侵权案件中,设计者具有特殊的地位,人工智能依据设计者制造的程序作出行为。在普通产品的生产过程中,制造者很容易发现产品的设计存在缺陷,在这种情况下要求制造者对设计缺陷负责有其合理性。而且如果发现存在设计缺陷制造者可以采取停止生产、停止上市等措施,将产品侵权案件扼杀在萌芽阶段,避免更多的损失,符合法经济学原理。但人工智能产品存在“算法黑箱性”,制造者难以突破技术壁垒发现设计缺陷,在这种情况下要求制造者对设计缺陷负责不符合公平性的原则,基于此我认为应当引入设计者的责任。
侵权责任编中并没有直接将产品的设计者列为担责主体。有两条法律解释途径可以解决设计者的责任承担问题。第一条途径,将人工智能产品的设计者纳入产品责任编第1204条的“运输者、仓储者等第三人”的范畴中,据此设计者承担过错责任。第二条途径,扩充产品责任中生产者的范畴,将人工智能产品的设计者纳入其中。我国现行法律没有对生产者进行解释,按照文意解释生产就是产品从无到有的过程,而生产者就是在生产这个过程中做出贡献的独立个体,基于人工智能产品的技术性特征人工智能产品设计者应包括其中。这样就能根据《民法典》1202条,让设计者承担无过错责任。由上述分析可以得出设计者无论是承担过错责任还是无过错责任,都可以按照现行法律进行合理解释。因此我们需要结合无过错责任原则的历史缘由来分析设计者究竟应承担何种责任。
过错责任原则盛行于19世纪中叶以前,进入19世纪中叶以后,资本主义世界进入社会化大生产阶段,先进的科学技术和生产工具给社会带来了巨大的进步,同时也引起了出乎意料的事故和损害。以前人们只要尽到相当的注意义务就可以避免对他人造成损害,在社会化大生产时期,先进的科技成果已远远的超出了人力支配范围,即使人们尽到了最高的注意义务,按照传统的过错认定标准被认为没有过错时,损害仍然不可避免。当大企业因存在上述新的危险造成损害时,根据过错责任原则,无辜的受害人往往得不到救济。为了更好地保护被害人,有必要不考虑加害人的过错,使之对自己的行为负责,无过错责任因此而诞生。无过错责任则主要针对现代化大生产、高科技所带来的各种先进机器、高速运输工具、环境污染事故,这些对象具有一些共同的特性,即它们都带有不可克服的危险性[13]。人类无法完全掌控人工智能产品,其具有不可克服的危险,从此方面来说应该适用无过错责任。
4.人工智能侵权归责的完善建议
4.1.使用人的责任
产品责任编中未直接规定使用者的责任,但使用者作为人工智能产品的直接控制者与利益享有者理应成为责任主体,谨慎使用人工智能产品,避免因操作不当导致第三人受损是其应当注意的义务。可以直接根据《民法典》侵权责任编中的第1165条,让使用者毫无争议的承担过错责任。此种侵权情形与传统侵权行为没有区别,不在本文的讨论范畴之中。
人工智能产品与普通产品的一个显著区别是,在实际运作过程中人工智能会脱离使用人的掌控。这一特征使得以使用人的注意义务为前提的过错侵权责任难以适用于人工智能独立运作的过程中产生的侵权,因此过错责任原则在此种情况下存在适用困境,需要进一步研究无过错责任的适用。
4.1.1.高度危险责任
该理论是将人工智能视为高度危险作业,人工智能存在难以控制的潜在风险,在经历自主学习之后会做出与设计者初衷不同的决策,其决策体系类似于“黑箱”。因此,人工智能侵权类似于高度危险作业,可以适用高度危险责任。
但是有学者认为,高度危险作业的立法目的是督促当事人尽力防范、减少损害的发生,而在人工智能独立运行过程中使用人无法控制人工智能。即便让人工智能的使用人承担责任,也无法防范、减少这类侵权的发生[10]。而且高度危险责任的责任人限于为营业目的而从事高度危险作业人,因而无法规制营业之外的行为。还有学者认为,人工智能的运用与核设施运营、航空器运营等行为存在本质区别,发展人工智能的目的是使人类生活更为便利与安全,即便在使用过程中产生了危险也并非其固有风险,很难将其定性为危险行为[13]。因此,高度危险责任不适用于人工智能侵权。
4.1.2.用人者责任
用人者责任又叫雇主责任,主要内容是如果雇员在职务范围内实施侵害他人权益的行为,那么不论雇主是否有过错都需要对雇员的行为承担责任。人工智能自主运行行为是为执行特定任务,所有者或使用者享有其运行利益。因此可以比照雇主对雇员的责任,让部署人工智能的人承担责任。
但雇主责任适用的前提是雇员为独立的主体,有独立财产和独立人格。人工智能肯定没有独立的财产,因此雇主承担责任后向有过错的雇员追偿的权利不能实现,至于有无独立的人格尚存在巨大争议。而且人工智能并不具备人类雇员的特性,在复杂的社会活动中不能作为一个有自我意识的主体存在,也无法从主观上断定其是否优先考虑“雇主利益”[14]。因此,将其类比为雇员并不合适。
4.1.3.监护人责任
监护人责任说认为因人工智能具备一定的自主性,但又不能像人类一样完全独立地思考和行为,其类似于人类社会中的无民事行为能力人或者限制民事行为能力人,使用者使用人工智能时应该对人工智能的自主行为负有监督义务,应当承担人工智能的监护人责任。
但监护权系准身份权[15],人工智能显然不具备“人格”与“身份”,而且监护人的监护手段与强度会随着监护人理性的增长而降低,但人工智能的理性程度难以确定。因此让人工智能的使用者负担监护义务这一说法并不合适。
4.2.特殊性侵权案件的责任规制
首先此种情形下人工智能的缺陷在产品投入流通时并不存在或者不能发现其存在,生产者、设计者可以适用发展风险抗辩,不承担产品责任。其次,在人工智能产品独立运行的过程中不存在使用者,没有承担使用者责任的主体。如果法律对此情形视而不见,让损失保留于其所发生之处,会阻碍人工智能产品的推广,使大众产生抵触心理。因此,我们不得不把目光投向公平责任。公平责任的适用条件是:加害行为、损害、加害行为同损害的因果关系、当事人均无过错且不构成无过错责任、根据当事人的财产状况加害人不承担责任显失公平[16]。在人工智能的特殊性侵权案件中生产者财产状况明显优于受害人,符合公平责任的适用条件。我国《民法典》第1186条规定了公平责任,但为了进一步明确分担损失规则的适用范围,统一裁判尺度,避免法官的自由裁量权的滥用,该法条同时也规定公平责任适用的前提是“依照法律的规定”。而现行法律没有规定人工智能侵权可以适用公平责任,因此为了解决人工智能领域特殊类型侵权的归责问题,有必要增设以“人工智能产品造成的损害,可以适用公平责任”为内容的法条。在人工智能侵权领域公平责任是一个有严格适用条件的兜底责任,具有很重要的价值。
5.结语
在当今的人工智能技术飞速发展的条件下,逃避风险就意味着放弃理性。如何通过法律防范人工智能风险的同时兼顾技术的发展,是法律学者义不容辞的使命。首先现阶段人工智能产品的法律地位是物,是具有独特特征的物;其次在人工智能产品客体属性基础上,应当根据《民法典》侵权责任编和《产品质量法》追究人工智能产品生产者的责任,具体来说生产者承担无过错责任;人工智能产品的设计者基于对产品的特殊贡献,应当承担责任,按照现行法律最便捷合理的做法是将其纳入到生产者的范畴,使其和生产者承担相同的责任;人工智能产品的使用者应当承担无过错责任,使用者是较为薄弱的责任主体不宜为其设置过重的责任;最后是特殊性侵权案件难以适用产品责任,应当适用公平责任,因为我国《民法典》第1186条对公平责任的限制,必须增设一条“人工智能产品造成的损害,可以适用公平责任”为内容的法条,来弥补严格适用过错责任和无过错责任带来的不公。因此现阶段人工智能产品的侵权行为并没有动摇现有的民事侵权责任体系的理论根基,在改进产品责任的前提下就能很好的规制人工智能侵权案件。