引言:是“算法规制”还是“规制算法”?
一、“算法物化”及其伦理效应
二、算法归责的转变
三、集体法律责任
四、分布式法律责任
“算法规制”是利用算法进行的技术治理,“规制算法”是对“算法规制”的再治理,后者的核心问题是如何在所有算法行为者(包括集体)之间公平合理地分配责任。为此,“规制算法”需要从技术、伦理和法律三重视角递进展开。从技术角度来看,可规制的算法是情境化、可落地的物化算法。从伦理角度来看,物化算法一方面使算法在伦理上需要(能够)被规制,另一方面又要求对算法的规制从个体化内在的意向性伦理评价转向集体性外在的责任伦理评价。从法律角度来看,算法中责任伦理评价可以通过两种形式实现:一是集体法律责任。现有委托—代理框架内的法律责任识别标准不能清晰辨别出个体算法行为者和集体的责任边界,所以,以此作为兜底性责任解决算法中集体不负责难题。二是分布式法律责任。在算法输入→结果输出的前向传播和结果输出→算法输入的后向传播交互形成的“前瞻后顾”算法行为及其伦理反思架构上,通过法律上期待可能性和严格责任在算法过程中形成“散点状”法律责任网络,据此精准识别算法行为者和集体各自的法律责任,避免最终由集体买单或者是无差别的平均责任分配。
对算法落地造成的算法黑箱、算法独裁、信息茧房、算法歧视、变相而隐蔽的人身控制等结果,学界已有广泛而深入的研究。通过分析我们发现一个比较集中的特征,那就是尽管绝大部分文献从不同侧面入手对算法应用过程中会出现哪些问题,以及如何规制算法提出了比较深入而且细致的研究,但却忽略了一个前提:我们到底是在讨论利用算法来进行治理性决策,还是对算法治理性决策进行治理?前者我们可以称之为“算法规制”,后者我们可以称之为“规制算法”。
伦理上迭代演进和自我完善的“算法规制”其理论基础是技术算法观,认为算法即技术,或算法主要是技术。在现实中往往表现出两种倾向:一是技术万能论;二是技术中立论。其中,技术万能论观点在算法领域的主张就是“万物皆可计算”观念极其普遍的算法设计程序。技术中立论的核心要义即“技术就是技术”与价值无涉,从而使算法责任无从着落。对此,我们通过对算法定义的分析来予以辩驳。
算法是什么?
技术中立论站在这种抽离了社会关联而孤立的角度得出的结论其实并不可靠。技术哲学核心命题之一就是“技术负载价值”。有学者将其通俗解释为“技术有偏心眼”。兰登·温纳一方面批评了轻率地主张对技术予以防卫的观点,强调技术发展对促进人类更好生活的益处。另一方面指出技术的内禀政治性势必会“将社会塑造成适合它自身模式的样子”从而不可避免地会改变人际权力均势走向。当技术和人工造物能够给人们的道德判断提供“物质答案”时,它也就具有了道德性。沿着温纳的观点和论证方法,托默·拉兹维奇指出在深度学习及其算法设计中同样存在着政治性。近年来,国内外大量文献论述算法中存在偏见、歧视、不透明性都从不同侧面论证了算法所具有的政治和伦理属性。那么,接下来我们需要论述的是:怎样理解算法具有政治和伦理属性?
“物化”与“道德能动性”双重属性的算法
在讨论算法和人工智能的伦理属性时,学界通常依据的伦理命题是:算法和人工智能的伦理属性是“人的伦理”而非“物的伦理”。该论断来自于两个相互支持的论证:一是笛卡尔心物二元论;二是亚里士多德三段论式伦理属性推理。在笛卡尔看来“理性灵魂,表明它决不能来自物质的力量”。我思故我在,实体及其概念来自于心灵的内在构造,物质世界不能够成为伦理推论的基础,所谓伦理只能是“人的伦理”而非“物的伦理”。在物质世界不可知的前提下,康德提出基于人的先验道德能力的道德律令,进一步补强“人的伦理”的合法性与唯一性。这种伦理思想迄今为止在政治、法律等领域都还居于主流地位。以法律为例,现代法律不仅不以无生命物作为法律责任主体,未成年人、饲养的动物等也不得作为法律责任主体。对于人工智能物,例如机器人的法律地位的判定也是依据这种观点。对这种由笛卡尔首开的伦理论断,马克﹒科尔伯格对之进行了亚里士多德式三段论推理转换。
(1)所有具有属性P的实体都具有道德地位S
(2)实体X具有属性P
(3)实体X具有道德地位S
从人类本位主义伦理观来看,道德行为体基于道德能动性为或不为某种道德上可评价行为,从而承担道德乃至法律责任,这是一个几近无缝对接式的平滑过渡。但是这种伦理道德推论应用在算法的伦理道德规制方面却出现了错位和断层。在自主化技术领域,难免会被质疑“人类究竟能在多大程度上维持其自主行动者的既定地位”?在算法治理过程中,算法及其人工物具有道德能动性的直接效果是影响人类一方的价值或伦理选择。从责任伦理和法律的角度来看,归责建立在主体能力和客观条件基础上。承担责任需要主体具有相应的认知和判断能力、身份或职责约束、先行行为、客观条件等。当人类因为算法的影响而减弱了相应的认知、选择和决断能力(例如算法正一步步替代人类进行分析、判断和选择;或算法及其人工物营造出无所不在的算法环境以暗示、诱导人们进行选择;甚至算法实际上只给人们提供唯一方案),按照一般伦理学观点,人类一方应该因此而减少或不承担责任。那么,人类减少或不承担的这部分责任能否就此转移到算法及其人工物那里?显然不行。因为前面已经说明,算法及其物化后的人工物虽然具备道德能动性,但不是能够负责任的道德行为主体。
从算法的角度来说,集体法律责任的提出,是针对算法设计与运行的两个特征:一是算法行为的局部交互性和较高的整体关联性;二是责任难以分割识别从而具有整体(集体)性。
为何要集体承担法律责任
算法本质上是一种递归计算及其技术应用。其中包含着“递归性结构”,即“技术包含着技术,直到最基础的水平”,还原至某个现象的这样一种结构。单就计算本身来讲,需要(a)足够数量的数据收集、存储、分类、结构化;(b)依据目标和条件进行算法设计及其初级运算,得出初步指令;(c)借助初步指令得出下一步指令;(d)在新的数据基础上不断重复(a)→(b)→(c)过程。这种层层累积叠加、优化组合的过程远非单一个体能够解决,要在大型的团队组织中协同配合才得以可能。而且,作为有机社会连接的基础要素,共同(集体)责任原本就是题中应有之意。社会关系中,每一个主体都是“互有责任的成员”。在算法和大数据架构出的现代信息社会中,社会成员之间的关联更加紧密而复杂,因此产生了比传统社会更多更复杂的责任关联。
集体法律责任是整个算法归责体系中的框架式、兜底式的责任。算法以及人工智能的发展现在还处于初始阶段,现在还不能比较清晰地勾勒出其对社会生活所产生的影响和具体内容。以集体法律责任作为初步的责任原则,可以避免在常规的因果责任原则难以适用时出现责任真空和有组织的不负责现象产生。当然,这个理由只是其一,还不能构成法律上认定集体法律责任的充要条件。集体只是一个法律上的拟制人,具体行为都是由自然人做出,因此,探讨集体责任时核心问题是依据什么标准个人行为被看作是集体行为。个人责任的判定一般来说有身份、代理关系、利益归属这三个标准。那么,这三个标准是否也适用于算法的集体责任认定?
正式的结构化组织中,外部组织边界比较固定而且清晰,内部岗位职能明确、成员身份固定,从身份来识别行为属性并确定责任承担相对简单。算法社会中,正式的结构化组织正在遭遇算法带来的冲击,组织形式产生极大变化,社会组织和社会关系越来越平面化和跨领域化,科层制组织逐渐被平台型组织所替代,体制性分配性身份关系逐渐被功能性身份关系替代。但既有的身份关系认定还停留在原先的制度框架内,难以识别越来越多出现的新型功能性身份关系,从法律上也暂时难以类别化。所以,将身份关系类别化后课以相应法律责任的做法行不通。代理关系和利益归属这两个标准同样也面临着类似的适用困难。对此,我们可以试着转变一下思路,从本文所倡导的积极法律责任的角度来分析。
身份、代理关系、利益归属这三个标准要么是站在外部识别的角度,要么是消极等待结果如何,不约而同地忽视了自始至终的一个关键性因素—集体行为。集体意向的形成到最终结果的产生,都是集体行为发起、展开、结束所产生的效应。以行为作为抓手分析集体责任的好处还在于可以避免身份、代理关系、利益归属这三个标准所带来的道德决定论的消极后果,以行为的可控性、自我审查、集体性期待等特性为行为归责找到合法性依据,也为良善的个体和集体性行为树立积极的正向标准。因此,积极的算法法律责任视角就是从集体行为出发进行分析的视角。
集体法律责任的边界及其适用原则
个体行为怎样被视为集体行为?在多元化主体和多元化任务交叉并行的算法实施领域,这个问题尤其复杂。原因在于:一、期待每一个集体成员在动机、意图、行动模式、目标等方面整齐划一是不可能的。从狭义的算法技术设计开始到整体性目标的最终实现,任务被逐级分解至不同环节上的个人。个人的任务目标随着总体任务的复杂性、集体组织的庞大和新型化、程序的细化等因素的逐渐演化从而与集体目标看起来渐行渐远;二、个人普遍来说都是从具身情境出发、以较多自身利益考量较少集体利益考量的标准去实现集体分配的任务;三、相对于一般的集体关联行为而言,算法行为显示的是其技术性的一面,很难直接看出其行为的社会关联性。所以,如果将个体行为视为集体行为的代理的话,不宜从行为种类、具体行为内容和行为结果方面入手,而是从行为推理模式入手。个体行为如果被视为集体行为的话,个体的推理模式应该符合集体推理模式,让“我的”推理符合“我们的”推理所要求的法律标准。这样的话,即使在算法环境中难以准确界定与他人和集体行为的关联度以及与最终结果的关联度,也不影响对行为属性和责任归属的判定。
总之,对于算法环境中产生的危险责任和客观责任也不能因为不宜归责于个体而出现空白。我们可以考虑让集体承担。不过集体承担也不是打包式的无原则归责,也要适用法律上的归责原则,我们可以考虑设计综合归责模式,即集体承担严格责任为主加上个体公平责任的形式予以调整。这样一来,首先可以保证不出现归责空白;其次,算法适用所造成的损害不仅仅是侵权类型所能够全部包含的,其中有部分体现为主体和组织边界难以精确界定的集体或社会性“法益”,或者是随着算法性社会关系而来的新型主体“权益”。在个体适用过错责任的情况下,让集体承担严格责任加上个体承担公平责任的模式进行归责较为妥当。
为了保证互联网系统的稳定性和安全,互联网环境中的算法大多数采用分布式算法。我们所说的互联网算法环境是智能化主体及其行为局部交互的分布式环境。在此环境下的整体行为呈分布式分散于不同的人和人工智能物,并通过交互式形式合作完成。分布式法律责任对应于分布式算法环境,脱胎于卢西亚诺﹒弗洛瑞迪、洛伦佐﹒马格纳尼、伊曼纽尔·巴登等人提出的“分布式道德”概念。特指在多个智能体(包括自然人、智能化人工物)形成的智能化系统中,由众人之手系统性交互作用而产生的,调整非个体化责任和宏观的全球化责任均日益增长现象的道德结构及其要求,面对的是多环节、多主体、分布式计算环境下的伦理和道德归责挑战。一言以蔽之,分布式道德和法律责任就是因为难以在个体意向性范围内进行自主自足的责任判断与归责,转而在整体范围内以长时段、阶段性、个别化甄别方法进行归责的责任。
分布式法律责任的必要性
分布式法律责任的三重结构
当法理标准具有了物理标准、事理标准、伦理标准三重结构时,意味着在算法关联性网络中可以通过“硬性的和软性的立法、规则和行为准则,助推、激励或抑制”等方法进行全方位、立体化的分布式道德责任判断。这就是说以法律上严格责任进行反向传播归责时,开启了情境化、多主体、多因素共同作用下的多维度归责空间。从主体的角度来看,构成算法网络有算法设计输入者、算法人工智能物、算法实施对象、算法平台;从目标上来看,通过算法所要实现的目标是多元的,有自主、公平、个人保护、整体性(社会)利益保护;从算法责任产生环节来看,有个人责任确定环节和集体责任确定环节。基于主体、目标和环节之间的复杂交错的关联,从而产生诸多因果关联形式、道德决策问题及其归责方式。面对诸多的主体、程序环节和不同的标准要求,想要获取周延、客观中立的优化结果,行之有效的方法就是采用矩阵分析。诺丁汉大学本·米帕姆首创用矩阵分析方法解决伦理冲突,即伦理矩阵方法。我们将其适用于分布式环境下的算法伦理分析,因为通过该方法,实际上已经把物理标准、事理标准囊括在伦理标准中,并且由此伦理标准出发找到的法律责任种类更为细致准确。
表算法伦理矩阵
如表中的算法伦理矩阵所示,在局部环境下,矩阵中的主体单独每一项伦理要求都有其合理性依据。但是从分布式环境整体来看,其合理性还需要结合其它主体的不同伦理要求进行整体性考量和修正。例如:对于算法设计和输入者来讲,自主性原则意味着其在分布式算法环境中局部的中立性算法行为自由。对于算法作用对象来讲,自主性则意味着即使算法设计和输入者的算法行为在伦理上无可指摘,也不意味着必须接受其行为结果。这样一来,从整体性以及行为结果角度来看,在自主原则这个维度上这两类主体之间产生了冲突。算法过程如果能够持续展开的话,需要相应的归责原则及其责任实现方式来予以调整。在个人保护原则、集体利益原则、公平正义原则上都程度不同地存在着类似的伦理冲突以及相应的归责原则和责任实现方式的需求。从表中各个主体的地位、利益与伦理诉求以及整体均衡方面来看,比较适宜的对应责任有:预期性伦理责任、前瞻责任以及回溯责任。
分布式法律责任的“散点状”网络结构
预期性伦理是调整“对未来可能的设备、应用和社会后果的预期,研究技术开发的研发和引进阶段的伦理问题”而产生的伦理规范,是“分析新兴技术将如何建立、想象它们将如何被适用、并解释其后果的实践”。由技术预期分析、伦理问题识别、伦理问题评估、反馈与技术治理四个阶段和流程组成,特点是对于技术流程的分析非常精细,相应的伦理问题的把握较为精确。前瞻性责任的“第一职责”是“想象技术行动的长远后果”,侧重在面向未来的整体性后果基础上制定伦理标准。我们可以将预期性伦理责任和前瞻责任运用于算法输入→结果输出的前向传播过程中的伦理判断与归责。回溯责任以结果为导向,倒溯至行动者网络中每一个行动者,综合分析其行为、身份职责、行为环境、客观而非想象的因果关系等因素进行归责。我们可以将其运用于结果输出→算法输入的后向传播过程中的伦理判断与归责。
至此,我们以期待可能性和严格责任在分布式算法网络中架构起相互呼应的归责原则体系。以期待可能性在算法输入→结果输出的前向传播过程中进行客观而具体的初步筛选,以严格责任在结果输出→算法输入的后向传播过程中再一次进行个别化的甄别。期待可能性以综合性结果为范围和导向,严格责任以客观的期待可能性为前提。无论是算法中前向传播过程和后向传播过程,还是附随其上的期待可能性和严格责任的适用与调整,都不是一次性过程。通过算法输入(期待可能性)→结果输出(严格责任)和结果输出(严格责任)→算法输入(期待可能性)的不断循环和纠正,最终在分布式算法网络中形成公平合理的、对应于由算法行动者、算法人工智能物组成的“散点状”法律责任网络。