作者:郑玉双中国政法大学法学院副教授、法学博士,来源:政治与法律
一、理解法律与算法之关系的道德框架
(一)算法:通过计算实现基本善
尽管人们常常把人工智能与算法并列,但两者略有不同。人工智能强调的是运用机器学习原理承担一定智能分析任务的系统,而算法是贯彻在人工智能系统中执行特定指令的程序。人工智能在语音和图像识别、地图导航等场景中发挥着越来越重要的作用,从社会功能角度看,是人工智能系统在承担这些重任。从技术原理来看,人工智能系统背后是计算机专家所开发的各种算法处理和分析海量数据并在特定场景中应用的过程。在实践中,人工智能应用与算法并不被严格区分,但算法规制的研究者所强调的是在数据分析和转化利用中发挥作用的算法,所以其法律问题不同于人工智能的设计开发者是否应当为人工智能所造成的损害承担侵权责任等。
算法的内涵有技术和社会两重意义。算法的技术意义并无太大争议,算法是一种计算方法,通过计算公式得出确定的结果。算法的社会意义受制于科技发展水平和社会语境,计算机的发明和网络传输技术的提升使得大数据收集成为可能,在此基础上,算法通过对海量数据的深度学习可以实现自我更新和升级,最后形成更为成熟的算法。网络服务主体开发利用特定算法(决策树、贝叶斯算法等)并服务于社会公众,比如信贷机构、网约车、社交和外卖平台等。除了商业外,政府也可以发挥自动决策的优势,运用算法决定行政审批,包括公共资源审核、假释评估等。
按照菲尼斯的主张,共同善有三重维度。第一,共同善是构成个人福祉和尊严的基本善好,是人们所追求的其他善的依据。第二,共同善指引实践推理,为人们的行动选择进行辩护。第三,人们追求共同善的过程之中会存在冲突,道德原则和法律制度为人们提供道德指引和制度保障。
共同善为技术发展和应用提供了价值依据,无论算法是应用于医疗、公共卫生、社会服务、商业经济,还是应用于公共决策,其最终的指向都是算法实践过程中社会成员的共同善得以促进和提升,共同善展现了算法嵌入社会生活的技术维度背后的价值域。同时,技术发展和应用是一个复杂的社会协作和博弈的过程,技术开发者、用户和政府之间既存在共享价值追求和利益结构,也因立场、利益取向和社会角色不同而产生冲突,比如互联网平台倾向于最大限度获取用户的信息以实现商业利益,而个体权利极易受到平台的侵害。冲突的存在并不意味着共同善失去了意义。利益冲突、权利侵害和政府规制困境的解决依然需要放置在以共同善为核心的价值域中。法律制度的设计和各方主体之行为边界的划定在共同善所支配的价值空间之中进行,既充实了共同善的价值内涵,也形成了关于社会合作和治理的一系列具体价值原则,如正义、权利和平等。
尽管人们可以从共同善视角对算法应用进行评估,但由于算法对社会交往和价值实践方式的革命性冲击及其潜在风险,如何让算法贡献于而非损害共同善,是当前需要回应的迫切议题。首先,算法改变了人们追求共同善的方式,因此也就带来一些特定价值的内涵转变。比如,传统上人们通过阅读新闻报道来获取知识和更好地参与社会,但个性化推荐算法的广泛应用却产生了“信息茧房”,其导致的结果是,个人虽然获取了大量信息,但并未转化为有效知识,并且反而会被这种信息获取机制反向支配,个人自治受到侵蚀。其次,共同善为法律制度设计提供了价值支持,当人们以法律为框架参与社会实践时,法律所追求的平等、权利和正义等价值将人们的选择和行动导向共同善。算法的出现同时对法律框架和其背后的价值造成冲击,也撼动了法律在社会生活中的规范地位。由于法律在社会生活中有着独特的制度意义和实现社会价值的特殊方式,仅仅从功能上理解算法和法律的关系是不够的。算法实践中的乱象引发对算法进行监管或者对算法规制本身进行法律规制的迫切需求,但不能预设法律在这些目标的实现上一定是灵敏和高效的。规制理论并不包含被算法重塑的价值世界和法律所内含的价值世界如何调适的整全理论。
(二)算法不是法律
算法与法律共同作用于人的实践结构,并且在影响社会决策的问题上日益融合,从而引发算法治理或规制的一系列难题。算法是一种特殊的解决问题的计算程序,算法依靠数据结构,通过特定的计算过程把输入转化为输出。人们需要参与社会实践活动,包括改造世界、交易活动和文化创造,计算是对实践活动的理性化和信息化展现。举例来说,金融活动是基于信用的资本流通,计算是将海量金融活动的信息化和数据化,通过对每笔交易的客户、地点和数额等进行分析,展现某个银行或地区的金融活动状态。金融活动古已有之,但金融活动的计算化和数据化是新兴事物。接下来的发展趋势是,社会实践活动的计算化,通过对实践活动过程——几乎所有的实践形式,购物、出行、社会交往和政治活动等——进行数据化。
社会生活的计算化和算法与法律的融合产生了三方面的难题,在很多研究者看来,算法的广泛应用会带来一定程度的社会危机和治理困境。
第二类是价值难题。从效用上看,算法具有巨大的社会利益。在商业领域,算法可以快速精准地判断市场商业需求。在公共领域,算法也潜力无限,“而算法决策对于建构性规则在作为证据和价值指引层面的作用得以增强,从而有助于规则的统一,并可以为立法提供依据”。然而,从价值角度来看,算法引发一定程度的价值危机。算法一方面改变人的主体性理解,赋予人的自由、自主选择和决策以新的内涵,另一方面在实践中引发固化歧视、侵犯隐私的问题,构成对人之尊严的威胁。再以算法黑箱问题为例。算法黑箱的规制难点在于算法决策过程完全由机器根据特定函数进行运转,人力无法干预,更无法解释算法运转的内在原理。然而,人们需要对算法的价值难题保持清醒的认识,算法本身是技术应用程式,其价值问题本质上是算法设计者和使用者利用算法损害某些价值。
第三类是归责难题。算法应用必然伴随着法律责任配置,以防范风险和实施救济,“对算法应用所引致的风险设置一定的责任结构,是算法规制必不可少的制度设计”。随着人工智能的广泛应用,其侵权问题也成为理论难点。人工智能的风险之一是算法侵权的救济途径难以确定。一个典型的例子是自动驾驶汽车致损的责任认定问题,汽车生产厂家、算法设计者和车主应如何划分责任,是自动驾驶汽车进入市场前须解决的问题。此外,算法歧视的救济也是一个复杂问题,特别是在公共决策中,如果一个人因为性别或学历而受到自动化行政决策的不同待遇,他是否能够向政府主张救济?
这些难题的确引发人们对算法应用和算法权力的担忧,所以理论和实践都迫切要求对算法进行制度和伦理约束,算法透明是对算法进行监管的主要实施标准,很多学者主张对算法进行解释是实现透明和打破黑箱社会的重要途径。然而,如果关于算法与法律的两个前置性问题没有解决,算法监管或权力制约可能会错失重点。第一,算法权力概念需要放置在社会正义框架之中进行分析,如果算法具备了一定的公共权力形态,那么需要借助于社会正义原则对算法权力的边界及异化可能进行价值评判和划界,算法引发的正义问题建构则需要剖析算法在何种意义上重塑了社会互动方式。第二,算法监管和归责等问题需要在法律框架之中进行,但算法监管实践中出现了大量棘手问题,比如“大数据杀熟”是否构成价格歧视,算法决策是否会危及人的自治价值,或者算法能否得到充分解释。
二、计算正义的内涵与法理层次
(一)计算正义的提出
在理解法律与算法之关系及如何通过法律来回应算法的问题上,共同善是价值基础和规范背景,计算正义则是从共同善导出的制度美德和法律规制依据。计算正义是正义原则在算法实践中的体现,是人的社会合作和创造活动被计算化过程中所应遵循的价值准则。学界探讨过数字正义、数据正义和算法正义,计算正义则具有更为丰富的内涵。数字正义或数据正义更多地强调数字化技术所构建的数字世界如何解决纠纷,特别是借助于信息技术和数据处理能力而提高司法的效率和公平性。算法正义则针对算法这一新兴事物在现代世界中的角色而确立适宜的制度功能,以充分发挥算法的社会功效,典型的争论是将算法作为商业秘密,还是作为新兴知识产权形态而赋予其专利。计算正义不仅关乎如何对算法进行法律定位,而且针对社会生活借助算法而实现的计算化和数据化所产生的正义空间。
计算正义包含着两个维度。第一个维度是价值意义上的。算法冲击了传统的价值世界,政治决策、商业决策和个人生活因算法的参与而更新了价值实践方式,比如自动化决策压缩了执法权滥用的可能性,但也消除了执法主体与相对人的商谈空间。个性化推荐给个人生活带来便利,但会产生隐性歧视。算法冲击了价值世界,同时产生新的价值形态,比如人的存在形态从生物体转向智能体,人的瞬时记忆、决定和行动轨迹都可以以数字化的形式永存,这在前算法时代是难以想象的。计算正义包含着如何理解这些价值的新兴实践形态及解决价值冲突的一般准则。然而,算法作为一种技术,其本身并不包含正义的元素,计算正义的提炼需要从算法实践与价值世界的互动之中开展。特别是在算法对传统价值产生冲击而需要对算法进行价值定位时,不能因为算法对某种价值构成威胁而否定算法,而是要在算法所创造的新型技术空间和价值世界自身的动态诠释空间之间进行对应,建立一种促进共同善之更好实现的公允方案,这正是计算正义的题中之义。
计算正义作为理念,需要落实到具体制度实践之中,也需要法律实践充实其内容,因此,计算正义的第二个维度是制度意义上的。正义体现在社会生活的方方面面,但只有通过法律的规范性实践才能阐发计算正义的具体内涵,并展现其统合法律价值世界的能力。正义是法律的基本价值追求,既在法律自身得以体现,比如司法正义,也是法律在社会实践中的目标,比如环境正义、税收正义等。由于算法和法律的深度互动,计算正义既在算法的公共功能中得以体现,也在算法实现社会功能所受到的法律约束中发挥实质意义。
根据以上讨论,可以对计算正义的内涵做出初步界定。算法服务于人们追求和实现共同善的目标,但由于算法实践的多元和不同主体之间的利益冲突,需要以共同善为基础确立计算正义在算法实践中的价值统摄地位。计算正义对算法实践和价值世界之间的碰撞进行整合,并引导算法以融贯和公允的方式追求共同善,而非满足某一方群体的利益。算法与法律在功能上和价值上不断整合,因此计算正义需要在制度上落实,并且需要从法律实践之中加以提炼。
(二)算法的正义空间
罗尔斯在虚拟的无知之幕下,将社会合作和政治生活的公平构建为正义价值的核心。对正义的理解包含着正义环境和正义价值的要核。计算正义同样包含正义空间和计算正义的核心价值两个方面。正义空间不同于正义环境。正义环境是确立正义以实现合作的充满不确定性的原初状态,正义空间是在既有正义环境之中形成的需要重构正义内容的不确定性社会状态。算法产生了新的正义空间,虽然既有的公平等正义原则可以对算法应用做出评价,但这是不够的。搜索引擎的出现带来了人们享受知识之善的巨大突破,这满足了正义的要求。然而,搜索引擎在带来知识革命的同时,也通过不透明的算法机制重塑人们的观念和行动,甚至影响政治决策,此时,算法就产生了一个新的正义空间,正如帕斯奎尔所讲的,“搜索引擎的秘密运作机制深深地影响着我们的世界观”。
理解算法的正义空间需要从两个方面进行,一是展现以算法为代表的新兴科技的社会意义,二是确立对算法进行价值分析的方式。计算正义的提出是对新兴科技的法律挑战的回应,解决算法各种规制问题的努力也是为了让社会进步与新兴科技发展良性互动,避免更大的科技风险和人文危机。
算法权力与传统权力的最大不同在于算法秉持技术理性,政治权力则追求道德理性和正当性。当政府借助算法进行规制的时候,算法的技术理性与道德理性会发生碰撞,产生不对称和失衡。在这个正义空间中,技术推理与道德推理同时进行才能确定算法参与的正义属性。权力实践包含着权威裁断与答责(accountability)两个方面,作为权力实施者的人在权力实践中依照政治目标和利益判断改变权力对象的行动理由,权力实践者在正当权威结构中对其决策承担责任。算法权力的独特性在于通过技术理性主导决策过程,既不同于传统的权威关系,也没有一个清晰的答责架构。算法权力产生了失衡的治理关系,算法使得社会朝向技术理性支配、商谈理性空间限缩的计算化和非可逆的发展形态。纯粹技术或者社会的视角都不足以揭示这一失衡的本质。如果按照权力行使的一般原理,显然算法权力的行使是一种异化,但是在计算正义的框架之下,不能以静态眼光看待算法权力,而是应该面向数字科技本身以及信息社会未来的发展可能性。
第二,价值分析是理解算法之正义空间的主体内容,人机协作带来了新的价值问题,人工智能的价值评判是当前困扰学界的一个难题。一方面,人工智能带来巨大收益,将大大促进人类福祉。另一方面,社会和政府都对人工智能保持警惕,担忧其未知风险。在传统意义上,科技对法律的冲击体现为规范层面的冲击,比如互联网创造了一个虚拟空间,互联网上的行为逻辑不同于现实世界,所以需要在规范上重新定义网络行为和表达的法律意义,比如将互联网言论视为言论自由的体现。
(三)计算正义原则的提炼
计算正义是社会计算化的价值统摄和人机协作的伦理约束,也是对算法应用进行法律规制的正当性基础。以下笔者采取一种分解策略,主张算法实践分为不同类型,所涉及的基本善也存在差异,因此在理论上应当进行不同的讨论,同时,不同算法场景所引发的问题最终都可纳入计算正义框架进行整合,因为计算正义的基本原则能够为算法的价值论辩提供可靠的溯源。从方法论上来看,对算法实践的分解与整合是提炼计算正义原则的互惠性过程,算法实践蕴含着计算正义的质料,计算正义是对算法实践的规范建构和价值提升。
从算法应用的场景来看,算法在商业领域中应用广泛,在公共领域越来越受青睐。网络购物、社交娱乐平台、网约车和信贷领域的算法已经非常成熟,社会信用体系建设中政府部门使用算法对个体信用进行评估是算法的公共决策的典型情形。算法在公共领域的应用仍然受限,主要是因为公共职能的民主和合法性维度无法被算法所掌握。公私领域在算法规制上存在差异,商业领域的算法规制偏重对用户私权的保护,公共领域的算法规制则强调受算法影响之个体平等与权利等价值的保障。
算法应用过程中暴露出来的主要问题是算法偏见和歧视、算法黑箱和算法公共决策的不透明等。计算正义也围绕这些问题展开,但仍然需要强调计算正义的两个层次。其一,算法应用的技术意义与社会意义纠缠,所以算法产生的实践困境往往是社会走向技术支配的复杂过程的代价,走出这种困境也需要直面新兴科技与法律的关系。其二,算法的实践难题应当从价值角度切入,并纳入计算正义的价值网络。不可否认,未来的算法立法将围绕算法的合法应用范围、算法侵权的救济以及算法监管(比如反不正当竞争)等领域而展开,立法者的重任是为算法应用者确立行为规范,划定行为边界。然而,算法立法本身是一个将计算正义支配下的立法原则转化为具体行为规范的审议和制度化过程,“立法伦理为算法主体的技术行为提供了内在的制度准则和规范指引”。如果没有计算正义原则的支配,算法领域的执法和司法将陷入价值争议泥潭。从这两个方面出发,可以将算法实践中的社会担忧提炼为两类正义实践问题。一类是算法在社会正义空间中所引发的价值冲击,另一类是算法参与决策的正当边界。
三、法律嵌入算法:迈向算法与法律之关系的重构模式
(一)算法与法律的重构模式
第一,在价值上,算法既冲击了传统价值实践方式,也重塑了价值的呈现形态。算法的社会意义主要体现在决策上,包括公共决策和私人决策。决策的主要意义在于为利益分配和社会合作提供方案,引导人们追求共同善。算法追求的具体价值类型有很多,有一些价值是法律与算法共同追求的,比如效率,但两者也存在着很多价值差异,比如算法追求决策的客观性,法律则追求决策的公开透明。这些差异会带来实践张力。例如,人的决策会受到认知局限、价值偏好等方面的影响,算法决策则以客观数据为素材、借助海量数据分析引导决策。算法运行是客观的,但也会因为数据的选择、算法的设计而注入偏见和引发歧视。这种歧视不同于人为歧视,而是一种被计算化的技术偏差。
如果单纯从结果上来判断算法对某个种族或者群体构成偏见,则会忽视算法决策自身的特性。某种实践方式是否构成对价值的损害,并不能按照价值的传统含义来理解,正如隐私的传统内涵是个人空间的私密性不受侵入,但据此不能得出个人手机定位和行踪就不是隐私的结论。合适的做法是在价值维度上探索算法与法律的重构空间。法律的价值意义具有论辩性,通过对行为选择及其实现的目标进行调整和解释来彰显某种价值,比如赋予每个个体参与竞争的机会以实现平等。算法的价值意义则是嵌入式的,算法运行的技术逻辑可能是相通的,但适用的场景不同,其价值意义就相应改变。重构模式强调以法律的价值论辩性嵌入数据世界,需要改变的不是算法,而是算法价值的嵌入方式,即在算法场景中充分释放法律价值的论辩性。
算法与法律的重构不是简单的功能融合,因为算法发挥技术功能,而法律发挥规范功能。两者的重构体现在算法对人的行为指引可视为法律指引功能的延伸,但算法的技术价值需要由法律价值加以约束并进行价值整合。这是一项复杂的技术和社会工程,同时展现了算法融入法律并拓展计算正义之内涵的开放空间。例如,在司法实践中,算法的应用不仅提高审判效率,而且重塑了司法公正观念。算法不只是以海量数据处理促进同案同判或者法官说理,还改变了人们对法律适用的期待,也会更新人们对法律价值的理解。机器决策部分替代法官智能会削弱司法的程序公正感,将人们的正义追求和情感认同置于软件和算法之上。
法律是政府进行技术规制的重要方式,但法律不只是发挥工具意义,否则法律内嵌的价值维度就会丧失。立法成本、执法压力和法律在应对实践之复杂性上的紧张等都模糊了法律价值判断的清晰脉络,也增加了通过算法规制解决算法难题的难度。在这个意义上,算法与法律的重构模式超越了将法律作为规制工具的简易方案。从计算正义的角度整合算法应用创造出的新价值域,是算法善治的应然出路。
(二)重新理解算法的法律实践难题
学界对计算正义的关切集中体现在算法不透明和算法权力的扩张之上。所谓的透明性原则和解释权是应对算法决策的不确定性的约束,然而这实际上是权宜之计,主要是因为作为公共决策之基本原则的透明性和解释权对算法决策来说,是非结构性和外在的拘束,因此无法构成真正意义上的限制。这个问题涉及算法应用的技术意义空间与法律或公共实践的制度意义空间的碰撞问题。从宏观上看,这是技术影响法律价值的展现。从微观上看,它指向的是由人类理性无法完全掌控且无法做出价值评价的计算过程来影响公共行动,是否能够经得起价值检验。透明性原则和解释权是价值检验的可选方案之一,但并一定是符合计算正义的最佳方案。数字运行所产生的意义空间与法律的价值空间在性质上不同,对两者之间关系的阐述即是算法解释权所针对的对象,但显然这种解释不同于法律解释,也不同于社会解释,是一种新兴的独特解释。因此,算法解释权就成为一个不确定的概念,甚至是无法解释的。
人们对算法透明的期待容易受到作为公权力之约束的透明原则的影响,然而,两者根本不同。透明原则强调的是公共决策背后的理由的公开性和可辩护性,而算法透明强调的是算法决策的可理解性。权力实践的透明性指向的是权力对个体利益的影响与决策背后的考量能够达成辩护意义上的一致性和融贯性。既有讨论对算法透明的追求通常强调的是算法决策和自动运行过程的公开性和可分析性。然而,这个追求在技术上并不现实,在价值上也没有太多实质意义。从技术上来说,算法的运行过程不可能实现完全公开,即使是专业技术人员也无法实现。从价值上看,算法透明涉及算法实践的一系列价值争议,如果不从计算正义的视角澄清算法的社会和法律意义,只会产生更多困扰。
在重构模式之下,应对算法歧视或偏见的方案是将法律嵌入算法实践的正义空间,重塑算法应用的社会结构。以算法歧视为例。歧视是基于不能得到证成的决策理由而对不同个体做出差异化对待的做法,歧视的不正义性体现在其决策理由与平等的价值内核相冲突。公正的法律制度应当致力于消除歧视,以彰显平等这一价值。
四、计算正义与算法规制
(一)算法规制背后的价值考量
首先,从规制的内涵上来看,其要义在于为政府所追求的行政目标确立合宜的决策和行动方案,比如为了保护生态环境而设立排污制度,为了保护人体健康而实施严格的药品审批制度。规制的内涵包含着如何解决规制领域的难题,而建构出在规制目标与政府效率和行政成本之间有机协调的实践方案。然而,在算法规制问题上,政府规制目标和有效的规制方案这两方面都是不清晰的。算法应用的很多方面值得警惕,比如大数据杀熟、隐性歧视等,但政府在政务服务中也逐步地引入算法实现其规制任务。也就是说,政府既要对算法进行规制,也借助于算法实施规制。这表明,算法不只是一个引发实践困境的新兴规制对象,而是一种带来法律价值世界激烈变动的新兴技术形态
其次,尽管算法规制可以成为一种应对算法之挑战的整体姿态或最低共识,但如果不具体呈现每一种算法技术应用所关涉的价值论辩,那么算法规制只能流于形式,治标不治本。算法技术应用指向共同善,但在具体领域中,算法应用所实现的价值与该领域所蕴含的价值世界之间进行融合协调,需要计算正义原则的引导,也需要在此语境下具体地克服算法不透明和难以解释等所引发的问题。在此基础上,才能展现算法规制的完整价值图景,而非简单地将算法作为规制对象,仅从后果消除算法的潜在风险。
最后,算法规制正以渐进的方式进入政府对技术的规制工程,但在重构模式的引导下,应以算法引发的技术变革为契机,重新反思公权力和个人权利的法理边界。算法在政府决策中的应用和在商业场景上的应用在形式上存在较大差异,但两者的共同之处在于改变了社会决策方式,并以机器理性部分地取代了包含着沟通和磋商的交往理性。自动化决策可能会漠视个体的令人同情的处境,市场经营者可能会使用算法共谋形成垄断地位,却把责任推给自动运行的算法以逃避监管。算法规制不应只是发现算法失范或滥用并加以防范,而应在算法更新社会决策方式的语境下,对机器理性参与决策的正义程度进行评估,为算法规制提供价值依据。
(二)计算正义理念对规制算法的启示
在算法与法律的重构模式之框架下,对算法的规制在本质上是将算法应用纳入计算正义的评估体系,使算法对公共生活的安排和社会合作的促进能够符合基本正义原则。社会正义的要求是抽象的,算法对个体生活的影响体现在具体生活的某一面向。正是借助于法律这种权威性公共论辩机制,才能将正义要求纳入算法与法律的互动进程。规制算法需要在框架上展现三方面的价值内涵。
第一,对算法的规制旨在促进算法的公平实践。公平实践是现代技术应用的价值约束性原则,但随着科技对社会结构的影响越来越深入,如何确立公平的内涵成为科技立法和监管的一项重大难题。对算法的规制最终需要落实到监管部门的具体决策,公平价值将在政府的决策方案和规制途径之中加以呈现,但这并不是算法监管的全部。基于算法与法律的重构模式,算法应用产生了一个法律与算法互相嵌入的价值空间,算法规制是这个价值空间的延伸和纠正。算法规制不只是从公平意义上划定算法应用的边界,它同时被算法实践所创造的新兴价值评价方式所重塑,比如算法与正当程序的自然相近性使得算法的运行过程比起人类决策行为更容易受到正当程序原则的评价和制约。
第二,对于用户创造的海量数据及其算法应用中可能出现的侵权,网络服务者和政府监管机构基于不同目标实施着不同的应对方式。然而,“无论是关乎私人信息保护,抑或是关乎国家安全,私人服务、公共服务和监管利益之间的界限本质上是模糊的”。这既是挑战,也是机遇。挑战体现在,如果计算正义的内涵未能形成定论,对算法规制的过多强调会加重算法监管机构的重任,也会产生法律能够承担监管工具之重任的假象。并且,算法权力的涌现也带来了规制上的新兴问题,政府监管权力之边界成为亟需解决的议题。机遇则体现在,机器学习的运行逻辑和公共属性表明了算法在公共服务和有效监管上的巨大潜力,尽管在公共决策中算法发挥的作用非常有限,但智能社会和数字时代的来临,势必引发公共决策和服务的智能化和算法化。算法治理也应利用数字时代的计算化优势,建构数据开发利用、算法运行和平台运营的互惠性机制,“不应孤立、静态、割裂地就算法而论算法,而应秉持数据、算法和平台相互联结的聚合性视角统筹推进”。
第三,对算法的规制应强化算法应用的共同善维度。对计算正义的追求要求算法设计者和应用者以共同善作为基本价值追求。学界针对算法偏离共同善的危机提出了有针对性的方案,比如在算法设计中加入伦理元素,或者“教导”人工智能成为道德机器。然而,这些方案误解了机器学习的基本逻辑,也无法给政府监管部门提供有效的指引。算法的共同善维度体现为关于算法透明和公平实践的一系列正义要求,应当在社会实践的共同善追求、算法促进社会实践的独特原理和法律嵌入算法的创造性空间等方面进行反思性重建,提炼出能够展现共同善之辐射力量和客观规范意义的价值表达和实践方案。
举例来说,基于机器学习的基本原理,真正意义上的算法透明无法实现,但这并不意味着对算法的规制会落空。将共同善纳入揭开“算法黑箱”的设计过程,意味着促进人类社会更好合作、不挫败每个有尊严之个体的人生计划的伦理追求,应当纳入算法开发、设计和应用场景之转化的全部过程。法律对这种伦理追求的回应是,法律在与算法互动的价值分析网络中确立应对价值疑难的最佳方案。规制是将法律的权威性判断评估社会主体之行动的决策过程,算法规制符合规制的一般原理,但突出算法与法律的互惠意义。算法透明无法成为算法规制的追求,但可以通过赋予算法纠偏机制或者重估机制等程序规制来克服算法不透明所引发的消极效应,反过来促进真正意义上的平等的实现。法律当然也要面对实践中不同价值之间的张力,比如算法效率的追求、算法作为商业秘密的保护必要性和规制成本等。这些价值论辩可能难以得出定论,但对共同善的强调可以促进不同价值之间的统合。在计算时代,通过强化计算正义原则的规范意义,算法规制的复杂工程能得到有力的价值指引。
五、结论
在智能时代,算法的广泛应用既有巨大的前景,也给价值世界带来了巨大挑战。在技术结构上,算法是借助于计算过程实现特定目标的程式化步骤,法律是沟通价值世界与人类合作实践的权威性机制,两者分属不同的社会实践层次。在社会和价值意义上,算法的社会性体现在通过最优计算实现决策的成本最小化,而法律的社会性体现在法律的规范世界与社会价值世界的互惠性建构,两者在功能上互补,但并非重叠和替代。因此,算法不是法律,也无法担负法律在现代社会的使命。理解算法的法律意义及挑战,恰当的方法论方案不是将算法和法律在概念上等置,并简单地将法律作为规制工具,而是在计算正义原则的指引下,分析作为规范世界的法律如何受到纯粹技术化和计算化的决策机制的冲击,并确立计算正义在算法应用中的具体价值内涵。在社会生活数据化和算力高速提升的社会背景下,应基于重构模式理解算法与法律的互动方式和正义空间,为算法规制确立可靠的价值框架。在此基础上,才能更好地回应算法歧视、自动化决策的正当性困境和个人权利保障等紧迫难题。
《数字法治》专题由华东政法大学数字法治研究院特约供稿。专题统筹:秦前松