刘云:论人工智能的法律人格制度需求与多层应对

刘云清华大学法学院博士后、助理研究员。

内容摘要

关键词:人工智能法律人格智能社会治理机器侵权侵权责任塑造权利能力

一、智能社会治理中人工智能的法律人格争议

人工智能的法律人格问题是随着自动化技术的发展而产生的。早在20世纪60年代末,人们就开始讨论通过计算机做出的行为具有何种法律效果,最初的研究倾向于认定为一种电子化的意思表示。美国统一州法委员会在20世纪90年代拟定统一计算机信息交易示范法(草案)时开始考虑将合同订立的数据交换电文视为一种电子代理人,但是此处的电子代理人是完全按照人的指示行事的计算机程序,最终颁布的示范法也仅仅在少数州获得认可。劳伦斯·索伦在1992年首次讨论了赋予人工智能法律人格的可能与障碍,他指出:在人工智能发展处于低谷且没有高级人工智能实物的背景下,应当按照现行法进行相对保守的处理,人工智能真正普及之后就需要考虑是否赋予法律人格的问题。随着科学技术的发展,越来越复杂的人工智能实体表现出灵活多样的行为,除了参与合同签订、机械工作和决策辅助外,还可以承担“驾驶员”“作家”“家庭管家”“自动化决策者”等传统理性人的角色,这些再次引发了智能社会治理背景下拟制人工智能法律人格的讨论。

人工智能的法律人格是许多具体问题都会触碰到的理论假设。无监督的人工智能自主机器人可否拟制为人?人工智能技术自动生成作品是否可以享有著作权保护?如何对人工智能机器人进行征税?自动驾驶汽车造成他人损害该由谁来承担责任?如何为人工智能技术的发展设定伦理规范?人工智能机器人出入国家边境如何进行审查?人工智能产品的风险是否可以得到有限责任保护?……这些问题都会牵扯到赋予人工智能以法律人格来满足社会治理需求的可能性。近几年来引发人工智能法律人格问题讨论主要是三个方面的事件:

第一,人工智能生成物是否受著作权保护引发了法律人格问题的追问。美国纽约州法院于2014年在黑猩猩自拍形成的照片案例中作出裁定:尽管黑猩猩具有比较复杂的认知能力,但其不能被视为自然人,故而其照片不受著作权法保护。这一案例引发了学术界对人工智能生成物是否可以受著作权法保护的讨论。2018年12月,北京互联网法院首次在计算机系统自动生成物一案判决中指出:软件用户仅提交了关键词进行搜索,应用“可视化”功能自动生成的分析报告亦非传递软件用户思想、感情的独创性表达,故该分析报告亦不宜认定为使用者创作完成。在没有人工智能主体资格的情况下,以世界知识产权组织为代表的国内外观点不支持人工智能生成物受著作权法保护。

第二,人工智能是否可以在特定场景认定为法律上所规定的人成为现实的社会问题。2016年2月,美国国家公路交通安全管理局在给谷歌公司的回函中明确表示,根据美国联邦法律,谷歌自动驾驶汽车中的自动驾驶系统可视为“驾驶员”,这为人工智能在自动驾驶领域的落地提供了有利的条件。2017年10月,一家香港公司制造的机器人索菲亚被沙特阿拉伯授予公民身份,这引起了人工智能法律人格问题的热烈争议。此外,机器人出入国境场景下的法律适用,也成为一些学者讨论的新议题。这些现实问题都反映了智能社会治理中的法律挑战。

二、赋予人工智能以法律人格的必要性

(一)明确侵权责任分配

在民法上选择哪一个主体承担赔偿责任应当根据效率和有效性的功能作出判断,直接让机器人承担责任并不是在任何情况下都是明智的选择。

一方面,可能难以起到法律引导的功能。机器人并不害怕被追责,无法感知法律责任的教育意义。即使是直接对机器人施加惩罚,包括机器的断开、瘫痪和毁坏,也只会给拥有机器或对其拥有权利的当事人造成负担。

另一方面,限制人工智能制造商或设计者的责任并不构成为其拟制法律人格的正当目的。

总而言之,授予人工智能以法律人格绝不能以不合理转嫁责任为目标。至少在人工智能发展风险还不明朗的当今,做好人工智能产业开发端的风险把控依然是最稳妥和务实的政策选择。然而,基于明确侵权责任承担主体的理由,当拟制法律人格有助于应对人工智能带来的责任复杂性问题时,这种分解、简化责任关系的策略是一种可选的制度安排。此外,随着共有产权和共同控制成为一种潜在的趋势,对人工智能的惩罚存在拔下电源、重新编程等多种多样的观点争论,目前仍然没有找到普遍接受的方法惩罚人工智能,赋予人工智能以法律人格可能成为复杂控制关系下人工智能的一种责任认定依据。

(二)以塑造行为能力、权利能力为目标

随着人工智能充当的社会角色越来越多,赋予其特定的行为能力、权利能力成为选择法律人格制度的重要考虑因素。一种误解会认为人工智能所拥有的行为能力、权利能力与人类相同,故此联想到主体认同是否会引发人工智能伦理威胁。事实上,机器人的权利有别于人类的“自然权利”,它具有法律拟制性、利他性以及功能性等权利属性。在现有的法律主体之中,不同年龄阶段的人所拥有的行为能力范围可能是不同的,金融公司和煤矿公司所具有的行为能力范围也存在明显差异,公司和人也是拥有不同权利能力的法律主体。因此,法律主体资格是依法取得的,各类法律主体所拥有的行为能力、权利能力范围也是依法限定的,赋予人工智能法律人格不意味着其可以享有基本人权中的各项权利。也即,可以根据智能社会治理的需求确定或者限定其行为能力、权利能力的范围。例如,有观点认为,人工智能应当具备订立合同、报告残酷的行为能力,结合人工智能的特点赋予获取数据和能源、升级和维护的权利能力。从人工智能目前的发展阶段而言,其可能的行为能力和权利能力需求主要是缔约能力和获利能力。

(三)以构建社会治理新范式为目标

法律规则是对社会实践的抽象总结,其本身应当具有扩展适用能力才能稳定法治社会的预期,故而,法律人一般倾向秉持保守主义的做法而维持现行法律主体范围不变。积极支持变革者则认为,法律面对人工智能这类高度发达的技术如果仅做微小的调整,只会徒增更大的法律复杂性。其基本逻辑是,如果人工智能对法律的方方面面都产生了深刻影响,在现行法律制度中依托现有法律主体构建各种法律关系可能导致规则过于复杂或者执行成本过高,这会导致勉强的法律解释脱离社会的真实情况,最终会成为不明智和不可持续的守旧派。为此,授予人工智能法律人格的一个根本目标就是构建新的治理结构,从而适应智能社会的法律范式变革需求。

三、人工智能法律人格框架下的多层治理模式

(一)作为财产的人工智能

(二)类推适用代理规则

如果创造新的法律主体是一项艰难的选项,对法律的文义解释也不足以解决社会中出现的新兴问题,那么类推适用可以算作一个广泛采用且简单易用的方法,其借助比喻的手段寻找出路。从技术的发展阶段而言,“人工代理”比“人工智能”更能准确地反映这项技术的本质,机器人也仅仅是通过代理的方式实现了人的能力的延伸。在代理关系中,人工智能可以被视为所有权人、操作员、开发者、算法训练人员、程序员、用户的代理人,委托人可以对人工智能进行监控。这一关系是从开启电源(创建代理)到关闭电源(终止代理)的代理,它可以在没有人类指示的情况下作为仆人向其主人提供持续的服务,也可以从其具有控制权的人类负责人那里接收指示和任务。

总而言之,类推适用代理规则实质上给予了人工智能一种虚拟的法律主体资格,但这是一种各方都不认可的法律主体,其本质是充当委托人的“电子奴隶”。这种法律关系的设计确实能够兼顾人工智能的自主化需求和人类的风险防控目标,但是该机制设计无法通过简单的类推适用规则来解决,还必须根据人工智能的特点作出专项的法律解释或者与之有关的新立法。

(三)借用公司或财产法人的外壳

其基本方法包括四个步骤:

(1)有需求的人类或者企业按照有限责任公司的登记程序成立一家公司,最好是只有一个成员的“一人公司”;

(2)该公司的创始人按照公司决议程序通过一项经营协议,约定该公司将完全采取人工智能的自动化系统进行决策,并确定公司其他成员和行为如何受该人工智能决策系统约束的条款;

(4)创始人退出公司的股东身份,从而创设了一家没有任何人类股东、完全由人工智能系统操控的公司法人。

这一方案以实际目的为出发点,在法律尚不直接承认人工智能法律主体资格的情况下,构建“零成员公司”让人工智能按照现行公司法人的方式运行,从而可以间接地实现人工智能取得法律人格所需要达成的各项目标。

(四)设立新的法律主体资格

结语

2021年1月12日—1月19日上海市法学会官方微博开展了抽奖活动,奖品为:由丁伟主编,孙福庆、王娟副主编,上海市立法研究所出品的《上海地方立法蓝皮书(2019年)》。现将经平台审核通过的获奖名单(微博id)公布如下:

接下来我们将赠书10本:由丁伟、孙福庆主编,王娟、郑辉副主编,上海市立法研究所出品的《“一网通办”法律规制》。

“一网通办”即“政务服务‘进一网、能通办’”,是当前上海乃至全国政务服务变革的重要抓手,是转变政府职能、创新行政管理方式、建设法治政府和服务型政府的重要载体。

THE END
1.AI造谣AI侵权AI诈骗纷至沓来,人工智能法何时出台?目前来看,在某些领域,聚焦的问题已经比较稳定、清晰,也存在行业和相关主体都期待解决的规则不清晰问题。例如训练数据使用作品是否构成侵害著作权,人工智能产业链上各主体的相关法律责任认定标准,人工智能生成合成内容标识的标准和落地问题等。对于这些问题,目前相关行政部门、地方政府、司法机关都在直面并试图给出回答,http://baijiahao.baidu.com/s?id=1817992414584094698&wfr=spider&for=pc
2.人工智能不应成为法律主体理论人工智能是否应当成为法律主体,取决于如下价值判断:既能够促进人工智能的发展,同时也能够消除人工智能的不当风险。技术变革往往会伴随风险,但只要风险可控且不会对人类价值产生不可接受的影响,那么法律就应采取最优措施来抑制风险。考虑当下功用,兼顾长远影响,总体来看,维持目前法律制度,不赋予人工智能以法律主体地位,是https://www.workercn.cn/c/2024-08-16/8330680.shtml
3.孙那确立人工智能法律主体地位的再思考孙那|确立人工智能法律主体地位的再思考 作者简介 孙那,西安交通大学法学院副教授,博士生导师。北京大学法学博士,法学、哲学博士后。国家高级技术经理人;北京大学国际知识产权研究中心研究员;中国互联网协会首批青年专家;陕西省法学会科技法学研究会秘书长;陕西省法学会知识产权研究会常务理事;陕西省法学会人工智能与http://ip.xjtu.edu.cn/info/1018/4505.htm
4.论人工智能的法律地位在人类经济和科技的双重推动作用下,人工智能经历了从弱人工智能到强人工智能的发展阶段,强人工智能的发展突破了弱人工智能作为产品的客体属性,人工智能不再局限于单纯的被主体支配,开始寻求自身的法律主体地位。AlphaGo在象棋比赛中战胜人类最优秀的棋手,“长相甜美”、“对答如流”的“索菲娅”被沙特政府给予“公民身份https://wap.cnki.net/touch/web/Dissertation/Article/10378-1019134943.nh.html
5.AI文生内容的版权战争:从个案到根本逻辑当下法律制度不具备容纳人类以外的独立主体,贸然改动法律底层结构的这一个受力点就可能动摇用几千年建构的法律大厦地基。在人工智能法律建构的观点上,如果保守是对手,那么激进可能是敌人。保守的错误还有机会治疗,激进的代价可能更加巨大。人工智能法律主体地位的研究需要积极探索谨慎建构,在理性中保持自然演进。 https://www.huxiu.com/article/3171103.html
6.人工智能成为法律主体不存在理论障碍重要信息转载新闻中心其二,人工智能成为法律主体也不会贬低人的主体地位。如前所述,赋予人工智能以法律人格,这一立场的根源就是为了更好地服务人类,且并不意味着要将具有人类智能的机器等同于“自然人”,所以不会导致人的主体地位受到贬低。赋予人工智能以特定的法律人格本身就是基于功利主义的考量,是出于人类利益的最大化追求,既不是要https://scsqw.cn/gzdt/zyhy/content_155817
7.数字经济发展中的智能侵权归责困境与解决路径分析(一)为何赋予:赋予人工智能法律主体地位的依据分析 1.法律规范的论证分析 (1)人工智能具有法律人格 人工智能是否享有民法的主体性地位的核心在于是否具有法律人格。人格是解决法律主体资格的标准之一。我国民法体系的主体构建逻辑是以法律人格为基础,界定作为民事主体的“人”。从实质来看,赋予主体法律人格是要参与了社会http://www.hnlx.org.cn/show_c.php?t=1&id=9569
8.基于法理学角度探讨人工智能与法"8其三, 即使强人工智能不会出现, 对人工智能法律主体资格的判断也很必要。若将有智力的人工智能视为工具, 可能会贬低智力和理性的重要性, 乃至贬损人的尊贵地位9.可是若将一些弱人工智能认定为法律主体, 就可能使利用人工智能致人损害或利用人工智能违法犯罪的人, 逃避法律责任;甚至, 如果赋予弱人工智能选举权,http://www.110.com/ziliao/article-831541.html