刘云清华大学法学院博士后、助理研究员。
内容摘要
关键词:人工智能法律人格智能社会治理机器侵权侵权责任塑造权利能力
一、智能社会治理中人工智能的法律人格争议
人工智能的法律人格问题是随着自动化技术的发展而产生的。早在20世纪60年代末,人们就开始讨论通过计算机做出的行为具有何种法律效果,最初的研究倾向于认定为一种电子化的意思表示。美国统一州法委员会在20世纪90年代拟定统一计算机信息交易示范法(草案)时开始考虑将合同订立的数据交换电文视为一种电子代理人,但是此处的电子代理人是完全按照人的指示行事的计算机程序,最终颁布的示范法也仅仅在少数州获得认可。劳伦斯·索伦在1992年首次讨论了赋予人工智能法律人格的可能与障碍,他指出:在人工智能发展处于低谷且没有高级人工智能实物的背景下,应当按照现行法进行相对保守的处理,人工智能真正普及之后就需要考虑是否赋予法律人格的问题。随着科学技术的发展,越来越复杂的人工智能实体表现出灵活多样的行为,除了参与合同签订、机械工作和决策辅助外,还可以承担“驾驶员”“作家”“家庭管家”“自动化决策者”等传统理性人的角色,这些再次引发了智能社会治理背景下拟制人工智能法律人格的讨论。
人工智能的法律人格是许多具体问题都会触碰到的理论假设。无监督的人工智能自主机器人可否拟制为人?人工智能技术自动生成作品是否可以享有著作权保护?如何对人工智能机器人进行征税?自动驾驶汽车造成他人损害该由谁来承担责任?如何为人工智能技术的发展设定伦理规范?人工智能机器人出入国家边境如何进行审查?人工智能产品的风险是否可以得到有限责任保护?……这些问题都会牵扯到赋予人工智能以法律人格来满足社会治理需求的可能性。近几年来引发人工智能法律人格问题讨论主要是三个方面的事件:
第一,人工智能生成物是否受著作权保护引发了法律人格问题的追问。美国纽约州法院于2014年在黑猩猩自拍形成的照片案例中作出裁定:尽管黑猩猩具有比较复杂的认知能力,但其不能被视为自然人,故而其照片不受著作权法保护。这一案例引发了学术界对人工智能生成物是否可以受著作权法保护的讨论。2018年12月,北京互联网法院首次在计算机系统自动生成物一案判决中指出:软件用户仅提交了关键词进行搜索,应用“可视化”功能自动生成的分析报告亦非传递软件用户思想、感情的独创性表达,故该分析报告亦不宜认定为使用者创作完成。在没有人工智能主体资格的情况下,以世界知识产权组织为代表的国内外观点不支持人工智能生成物受著作权法保护。
第二,人工智能是否可以在特定场景认定为法律上所规定的人成为现实的社会问题。2016年2月,美国国家公路交通安全管理局在给谷歌公司的回函中明确表示,根据美国联邦法律,谷歌自动驾驶汽车中的自动驾驶系统可视为“驾驶员”,这为人工智能在自动驾驶领域的落地提供了有利的条件。2017年10月,一家香港公司制造的机器人索菲亚被沙特阿拉伯授予公民身份,这引起了人工智能法律人格问题的热烈争议。此外,机器人出入国境场景下的法律适用,也成为一些学者讨论的新议题。这些现实问题都反映了智能社会治理中的法律挑战。
二、赋予人工智能以法律人格的必要性
(一)明确侵权责任分配
在民法上选择哪一个主体承担赔偿责任应当根据效率和有效性的功能作出判断,直接让机器人承担责任并不是在任何情况下都是明智的选择。
一方面,可能难以起到法律引导的功能。机器人并不害怕被追责,无法感知法律责任的教育意义。即使是直接对机器人施加惩罚,包括机器的断开、瘫痪和毁坏,也只会给拥有机器或对其拥有权利的当事人造成负担。
另一方面,限制人工智能制造商或设计者的责任并不构成为其拟制法律人格的正当目的。
总而言之,授予人工智能以法律人格绝不能以不合理转嫁责任为目标。至少在人工智能发展风险还不明朗的当今,做好人工智能产业开发端的风险把控依然是最稳妥和务实的政策选择。然而,基于明确侵权责任承担主体的理由,当拟制法律人格有助于应对人工智能带来的责任复杂性问题时,这种分解、简化责任关系的策略是一种可选的制度安排。此外,随着共有产权和共同控制成为一种潜在的趋势,对人工智能的惩罚存在拔下电源、重新编程等多种多样的观点争论,目前仍然没有找到普遍接受的方法惩罚人工智能,赋予人工智能以法律人格可能成为复杂控制关系下人工智能的一种责任认定依据。
(二)以塑造行为能力、权利能力为目标
随着人工智能充当的社会角色越来越多,赋予其特定的行为能力、权利能力成为选择法律人格制度的重要考虑因素。一种误解会认为人工智能所拥有的行为能力、权利能力与人类相同,故此联想到主体认同是否会引发人工智能伦理威胁。事实上,机器人的权利有别于人类的“自然权利”,它具有法律拟制性、利他性以及功能性等权利属性。在现有的法律主体之中,不同年龄阶段的人所拥有的行为能力范围可能是不同的,金融公司和煤矿公司所具有的行为能力范围也存在明显差异,公司和人也是拥有不同权利能力的法律主体。因此,法律主体资格是依法取得的,各类法律主体所拥有的行为能力、权利能力范围也是依法限定的,赋予人工智能法律人格不意味着其可以享有基本人权中的各项权利。也即,可以根据智能社会治理的需求确定或者限定其行为能力、权利能力的范围。例如,有观点认为,人工智能应当具备订立合同、报告残酷的行为能力,结合人工智能的特点赋予获取数据和能源、升级和维护的权利能力。从人工智能目前的发展阶段而言,其可能的行为能力和权利能力需求主要是缔约能力和获利能力。
(三)以构建社会治理新范式为目标
法律规则是对社会实践的抽象总结,其本身应当具有扩展适用能力才能稳定法治社会的预期,故而,法律人一般倾向秉持保守主义的做法而维持现行法律主体范围不变。积极支持变革者则认为,法律面对人工智能这类高度发达的技术如果仅做微小的调整,只会徒增更大的法律复杂性。其基本逻辑是,如果人工智能对法律的方方面面都产生了深刻影响,在现行法律制度中依托现有法律主体构建各种法律关系可能导致规则过于复杂或者执行成本过高,这会导致勉强的法律解释脱离社会的真实情况,最终会成为不明智和不可持续的守旧派。为此,授予人工智能法律人格的一个根本目标就是构建新的治理结构,从而适应智能社会的法律范式变革需求。
三、人工智能法律人格框架下的多层治理模式
(一)作为财产的人工智能
(二)类推适用代理规则
如果创造新的法律主体是一项艰难的选项,对法律的文义解释也不足以解决社会中出现的新兴问题,那么类推适用可以算作一个广泛采用且简单易用的方法,其借助比喻的手段寻找出路。从技术的发展阶段而言,“人工代理”比“人工智能”更能准确地反映这项技术的本质,机器人也仅仅是通过代理的方式实现了人的能力的延伸。在代理关系中,人工智能可以被视为所有权人、操作员、开发者、算法训练人员、程序员、用户的代理人,委托人可以对人工智能进行监控。这一关系是从开启电源(创建代理)到关闭电源(终止代理)的代理,它可以在没有人类指示的情况下作为仆人向其主人提供持续的服务,也可以从其具有控制权的人类负责人那里接收指示和任务。
总而言之,类推适用代理规则实质上给予了人工智能一种虚拟的法律主体资格,但这是一种各方都不认可的法律主体,其本质是充当委托人的“电子奴隶”。这种法律关系的设计确实能够兼顾人工智能的自主化需求和人类的风险防控目标,但是该机制设计无法通过简单的类推适用规则来解决,还必须根据人工智能的特点作出专项的法律解释或者与之有关的新立法。
(三)借用公司或财产法人的外壳
其基本方法包括四个步骤:
(1)有需求的人类或者企业按照有限责任公司的登记程序成立一家公司,最好是只有一个成员的“一人公司”;
(2)该公司的创始人按照公司决议程序通过一项经营协议,约定该公司将完全采取人工智能的自动化系统进行决策,并确定公司其他成员和行为如何受该人工智能决策系统约束的条款;
(4)创始人退出公司的股东身份,从而创设了一家没有任何人类股东、完全由人工智能系统操控的公司法人。
这一方案以实际目的为出发点,在法律尚不直接承认人工智能法律主体资格的情况下,构建“零成员公司”让人工智能按照现行公司法人的方式运行,从而可以间接地实现人工智能取得法律人格所需要达成的各项目标。
(四)设立新的法律主体资格
结语
微
博
抽
奖
2021年1月12日—1月19日上海市法学会官方微博开展了抽奖活动,奖品为:由丁伟主编,孙福庆、王娟副主编,上海市立法研究所出品的《上海地方立法蓝皮书(2019年)》。现将经平台审核通过的获奖名单(微博id)公布如下:
接下来我们将赠书10本:由丁伟、孙福庆主编,王娟、郑辉副主编,上海市立法研究所出品的《“一网通办”法律规制》。
“一网通办”即“政务服务‘进一网、能通办’”,是当前上海乃至全国政务服务变革的重要抓手,是转变政府职能、创新行政管理方式、建设法治政府和服务型政府的重要载体。