【作者】陈姿含(北京理工大学法学院副教授)
内容提要:算法处理敏感个人信息在发挥巨大社会效能的同时,与个人信息保护的自主性产生冲突,引发新的算法歧视。算法决策的规制和敏感个人信息的保护长期被视为两个独立的系统,但二者在现实中是紧密联系在一起的。要妥善解决算法决策及其场景赋能伴生的社会危机,就不能忽略算法决策处理敏感个人信息的道德价值,必须兼顾算法决策的精确性和公平价值,并应侧重从保护公民基本权利的角度,把算法公平和非歧视原则转化为具体的法律规制标准。
关键词:算法决策;公共治理;敏感信息保护;技术理性;基本权利
目次一、问题缘起:算法决策处理敏感信息的特殊性二、算法决策处理敏感个人信息引发新的法律风险三、算法决策处理敏感个人信息中的双重价值面向四、算法决策中敏感个人信息保护的合理路径五、结语:融于规范性的工具理性
一
问题缘起:算法决策处理敏感信息的特殊性
在驱动社会和经济发展层面,算法决策系统逐步摆脱工具主义而嵌入社会权力,决定着“经济系统底层秩序,数据的产生增长,到上层具体应用实践”,俨然成为一种驱动知识表达和结构部署的变革性力量——人们日益沉溺于技术发展带来的免费数字服务。但是这些服务并非真的免费,而是消费者通过提供自己的个人信息和在网络世界的各种活动记录作为代价换取的。百度、谷歌(Google)公司利用手机位置信息分析城市交通速度和运动趋势,并依靠地图软件为人们提供可行的交通方案;滴滴和优步公司则根据算法决策预测乘客需求,并根据乘客的个性化标识来提高车辆的调度效率;抖音、YouTube依靠算法决策来分析和提高网络媒体的流量;公共部门最初收集数据的主要目的是为了通过自动化决策系统以进行社会福利分配和政策预测,而到了到现阶段,已然在银行金融、医疗卫生、行政决策、刑事司法等领域中广泛部署自动化决策。这些行为深刻影响着社会权力和国家权力的运行过程。就本质而言,以算法进行的数据信息加工可以实现决策的“闭合和简化”,即帮助决策系统排除复杂因素干扰,实现完整和标准化输出,以满足多元用户需求,并保持既有秩序的稳定。
二
算法决策处理敏感个人信息引发新的法律风险
人工智能算法决策与敏感个人信息保护的融合存在两种方式:第一种融合方式的主要目标是使用人工智能帮助法律实现决策的可计算化和应用的可程序化,也就是构建一套类似于人类法律推理和论证的计算程序;第二种融合方式是借助人工智能算法决策分析敏感个人信息保护条款的语义,其主要目标是通过人工智能反馈系统帮助立法者制定规则或者通过决策系统检视高风险。在第二种融合方式中,技术人员发现了算法知识生成方式和法律规则知识表示方式的吻合性,即人工智能文本解析技术的发展水平越高,越能够从实体法律渊源中提取有效信息,并进行代码转化能力的自我提高。
(一)算法决策中信息的汇聚性与信息的自主性产生冲突
人工智能算法通过对敏感个人信息的汇聚可提升数据的价值,因为算法决策通过将原始的敏感个人信息和其他数据进行加工,产生衍生数据、促成算法升级、形成高密度的数据集。伴随着人工智能对敏感个人信息处理造成的风险,有学者提出个人数据和大数据的概念,用以区别于敏感个人信息。他们认为数据是一种信息集合,数据只有汇集才能产生准确的预测价值,对群体数据的处理更能够获得准确判断,而仅仅针对个体或者少数群体的数据进行处理未必能获得准确的预测效果。经过算法加工的敏感个人信息更强调其流通性和汇聚性,故不应当将其纳入敏感个人信息保护法的规制范围,从而过分强调个人对自己敏感个人信息的绝对控制。当然,信息或者数据的控制者可能与敏感个人信息主体发生分离,过于强调数据的汇集而忽略其中敏感个人信息作为原生数据的作用,本身就可能带来风险。
(二)算法歧视类型与传统歧视的关联性
尽管有证据证明传统歧视和算法歧视不同——算法歧视不仅会延续和放大人类社会固有的偏见,而且会通过系统性区分和决策性一致塑造歧视的隐秘性、永久性,但这并不意味着因算法决策产生的歧视问题可以摆脱信息规则的调整。因为信息是“作为特征向量输入算法的,而这些特征向量是描述信息质量的列表,这些质量本质上取决于输入信息的人”。算法决策引发的歧视与人类决策的传统歧视具有关联性,这是信息规则能够解决算法决策引发的歧视问题的前提。对算法歧视进行分类有助于强化对二者关联性和同质性的认知。算法可以划分为基于知识的算法、机器学习算法和深度学习算法,它们分别对应着算法决策敏感个人信息处理引发歧视的三种类型:
(三)算法决策会突破法律的规定而处理敏感个人信息
其二,个人信息保护规则面对算法决策的“黑箱问题”必须保持包容,因为人脑是黑箱,“传统的行政决策架构由于决策主体、知识和程序的封闭性也是一种黑箱”;算法黑箱的存在会导致人们对因果关系的认知断裂,算法黑箱本质上是人为的排他性信息预设。传统的人类决策和算法决策都需要从个体或者群体层面收集敏感个人信息作为决策的数据依据;人类决策和算法决策机制都存在“将单次错误转化为系统性决策结果”的可能性。但算法决策与传统公共决策存在本质的区别:目前算法处理敏感个人信息的设计、布局、调试和修改的过程,并不具有法定化的记录档案,也不存在强制性的沟通与对话机制。所以,法律欲有效规制算法,保持个人信息处理规则在算法领域的有效性,就应当穿透式审查、敏捷性回应,扩展行政法解释,强化对算法的合法性审查。
算法运行的有用性、普遍性、实效性并不必然推导出其处理敏感个人信息的客观性、正当性与合法性。算法需要规制,不能被解读为算法对决策尤其是公共决策没有作用或者算法决策应当被抛弃,而是因为算法引起了不同类型信息歧视的交互。我国以算法治理为抓手而开展的平台反垄断、数据安全、网络安全审查以及未成年人保护等问题,标志着“中国本土特色的平台穿透式监管和对科技行业从宽松宽容到积极严格的态度转变”,意味着法律规制进入算法内部且其对算法进行实质审查作用的强化。但是,要妥善应对算法决策在处理敏感个人信息时所引发的新的法律危机,还必须考察危机背后的价值导向。
三
算法决策处理敏感个人信息中的双重价值面向
“算法赋能”与“场景化应用”相互结合,成为法学学者研究算法决策机制的一种重要方法。信息规则的底层逻辑建立在高度抽象的行为模式之上,存在叠加性适用的困难。与之相比,作为工具的算法指向明确,能够应用于不同领域、发挥不同的社会赋能作用、挖掘更加丰富的算法决策产品,并进行具有针对性的算法决策。算法规则在决策中发挥的作用无可替代,但算法的工具理性不应被过分夸大。算法决策时,在个体层面容易忽略人的主体价值,在共同体层面会影响集体意识的形成和凝聚。这一集体意识正是“社会成员平均具有的信仰和感情的总和,构成了他们自身明确的生活体系”。正如涂尔干所言,这样一种超越了利益考量而在伦理层面沉淀,并表现为法律规范的集体意识的存在,确保了现代性过程中社会的稳定和进步。去除社会中的道德价值,既不是现代性的特征,也不是技术中立的正当性体现。算法决策在处理敏感个人信息的过程中既应更丰富地体现共同体价值,又应保障个体的平等和个性化诉求的实现。因此,欲有效保护算法决策中的敏感个人信息,就不能忽略其背后的个体价值和共同体价值的双重价值面向。
(一)凝聚社会共识中的个体化维护
信息时代知识创造的第一个趋势是以“算法赋能”和“场景化应用”为基础,第二个趋势就是信息处理的个体化。算法处理敏感个人信息中的个体化特征是算法社会分工后信息组成单位的进一步发展,但个体化并不等于个人主义。敏感个人信息作为个体权利的存在依据、基础问题和内在结构,恰恰不是以个人主义为中心,而是为了更好地保护算法决策环境中的共同体。只有如此,个体作为敏感信息主体,才能获得充分的尊重和有力的法律保障,并且在面对个人信息侵权者时不因客观力量对比悬殊而出现权利失能。
(二)决策的准确性与算法反歧视的兼顾
(三)强化敏感个人信息保护的技术理性思维
算法黑箱的存在具有客观性。但过分强调黑箱的存在会造成算法决策与传统人类决策的对立,并形成只能依靠技术来弥合二者对立的主张。算法决策与人类决策并非完全割裂的关系。算法可以隐藏和扩大偏见,让歧视拥有新的载体和方式,可以延续与检验人类决策的经验。当回答算法处理敏感个人信息应当秉承何种价值时,不应在技术理性思维与人文治理经验之间做单项选择。
在治理决策主要依靠知识的时代,人们在处理信息的过程中形成了三个防止歧视发生的经验:其一,在个体维度,人们收集信息的方式容易受到前见影响,即存在“刻板印象”或者“偏见”。当人们的精力有限而信息数量无限的时候,人类决策就会因为前见而对后续的信息进行非理性的编排。因此在人们有效地更新知识体系之前,设置接收信息的阻断程序可以防止人类决策过程中的歧视扩大。其二,人类利用机器学习算法进行决策时,数据汇集的质量会对信息阻断和过滤机制提出要求,因为如果数据训练样本存在偏差,那么训练模型就可能产生歧视。其三,从宏观的角度而言,有时单个信息节点恰好是信息决策系统中的关键性节点,因此,在对该信息节点进行控制时,不仅应考虑信息流动的节点效应,而且应考虑更为长远的社会价值的实现,比如公共算法决策如果通过导航系统指挥驾驶员长期不断绕远路而降低指挥成本、舒缓交通压力,那么该算法结果就不会带来更好的治理效能,反而会导致公众对该算法决策的不信任。因此处理敏感个人信息的公共算法决策必须考量社会公众安全并符合社会公众的合理公平预期。
四
算法决策中敏感个人信息保护的合理路径
算法决策处理的敏感个人信息一旦遭到泄露,会对个人造成不可预见的风险甚至是特别严重的损害。既有立法在对技术“可能危害到的重大法益、技术不确定性、预防措施以及证明机制”的风险规制和制度建构方面做了巨大的努力,我国既有的规范体系也对个人信息进行了分类界定和保护,但算法决策中敏感个人信息保护的特殊性仍对价值融入与制度构建提出了具体要求:
第一,以“识别性”为基础的概念界定方式旨在赋予个人信息一个相对静态和封闭的空间,以给个人信息权益的私法救济留有余地,并对敏感个人信息进行特别保护,但是算法决策突破了这一封闭性,其拓展了信息处理规模、提升了数据处理效率,构建了共享数据库,推动了加密与解密技术的进步,可实现反向可识别与可复制的数据挖掘,这些都对敏感个人信息保护提出了新的挑战;第二,以《个人信息保护法》为核心的法律规范虽然对敏感个人信息与一般信息进行了区分,但是并没有专门针对自动化决策领域中敏感个人信息保护作出特别规定;第三,在具体保护路径上,立法设定个人“知情同意”权利的行使模式,可使得经知情同意的敏感个人信息处理行为合法化,这一模式延续了个人信息控制论和自决权的范式。敏感个人信息在算法决策中扮演最为重要的角色时,其本身具有两种价值,一个是作为个体权利的价值,一个是作为群体利益的价值,而如何妥善地处理敏感个人信息的群体价值,是一个需要认真对待的难题。
(一)算法决策处理敏感个人信息时的识别性与规范性
表1敏感个人信息的筛选
对算法决策过程中的信息筛选之所以做以上三个阶层的区分,是因为被筛选的敏感个人信息涉及主体不同的身份界定与行权范围。第一阶层的信息处理,是对自然人身份的一种识别,这一识别之下关涉两种关系的区分,一个是识别自然人的社会关系,一个是识别自然人的交易关系。第二阶层和第三阶层的信息识别是对自然人公民身份的一种识别,关涉公民的个体利益与社会群体的利益两种利益。在对个人信息进行分离和筛选的过程中,无论是自然人个体还是公权力主体都应遵循个人信息保护规则,比如涉及个人信息的约定不得违背强制性法律规定,法律对公民信息实体权利的限制不得侵犯宪法所赋予的公民的基本权利,对公民基本权利的限制必须进行合法性审查等。公共决策以人工智能算法对信息进行识别和筛选,同样应满足上述三个阶层的承诺和合法性规定。
(二)构建算法决策敏感个人信息的一体化法律制度体系
个人信息法律属性的复杂性、牵涉主体诉求的多元性、算法处理方式的可变性,决定了对算法处理敏感个人信息的法律规制必然涉及多种法益。未来,建立协调公私利益的实质标准和操作程序应成为敏感个人信息保护法律制度完善的重要议题。在此过程中,需要重点解决两个问题:第一,如何处理算法规制和敏感个人信息保护两种规则的有限性之间的关系;第二,如何实现公法规制和私法规制的协调。
2016-2019年,围绕着算法决策在教育资源分配中的使用争议,法国产生了一系列的诉讼。法国宪法委员会(ConseilConstitutionnel)根据2018-765DC决定,作出政府不能使用机器学习算法进行自动化决策的合宪性解释;由于“法国的行政诉讼采用判例法,行政法以行政法院的判例确立的规则体系为主体”。这一解释的里程碑意义在于划定了行政主体在使用算法进行自动化决策时不能突破既有的合法性要求,不能通过“避免算法自行更改其应遵循的规则”,在宪法层面划定了算法决策规则与敏感个人信息处理规则两套系统的先后顺序。行政法的重要任务是“审查行政行为事实问题和法律适用,审查裁量权滥用和越权”,作为专门化的学科,保证行政法的发展同国家权力保持一致,不能因为算法决策影响信息处理义务的履行,也不能因为算法决策影响个人信息所享有的私密利益。法国宪法委员会的决定旨在说明算法解释不能作为一种单纯的技术现象,其被用作决策时,不能成为免除个人信息保护义务的事由。
欧盟构建了一个公私一体、立法多元的法律体系用来保护敏感个人信息:在条约这一层面为个人信息权利提供了宪法层面的法律依据;在公约这一层面,明确“在公共和私人领域”给予个人信息处理同等保护、进一步扩展个人敏感数据目录,从立法目的层面给予敏感个人信息处理基本自由的保障;在数据和指令层面,欧盟《通用数据保护条例》沿袭了《欧盟个人数据保护指令》时代确立的“人性尊严自治”立法模式,尤其是第22条算法规制条款充分赋予数据主体各种延伸的新型权利,GDPR第28条规定了公共决策外包后也无法逃脱对敏感个人信息保护的责任。
在社会福利分配方面,立法应借助技术法律规范,从规范机器学习的算法部署、算法透明和算法决策责任承担三个角度确保算法决策公平。我国《电子商务法》中有关管理关系的规定和《数据安全法》中“政务数据的安全与开放”专章,都立足于提高政务服务的响应能力,提升算法决策系统内部和外部的信息粒度;现有的刑法在完善罪名体系方面注重把信息和数据作为犯罪对象,强调对信息非法获取而非滥用行为的规制。这些规范策略延续了技术法律规范的路径,同时对敏感个人信息保护的完整性、行为规制类型的全面性提出了更高的要求。此外,当算法决策敏感个人信息过程中遇到群体隐私失控、弱势群体行权困难、隐私保护群体差异与公共管理参与限制等问题时,敏感个人信息的保护问题已经超越了单一法律的范畴,有待通过基本权利的保护来协调整个法权结构。
(三)构建算法决策敏感个人信息中基本权利的动态保护制度
算法已深刻影响了数智化社会人们的生存和生活方式,既有的法律理论与制度逻辑在“后设机制一体化”进程中展开。有学者提出,传统的基本权利制度在应对算法决策处理敏感个人信息这一技术与数据叠加发展的场景时,已不具有适应性。为回应这一观点,有必要对基本权利的形式功能和价值功能进行区分。权利规则在立法中具有体现立法目的、凝聚社会共识和充当评判标准的特殊功能。算法决策中仍有保护个人权利的必要。权利话语既是一种立法技术,也是一种立法目的。作为目的的权利话语不能被法律所忽略,因为我国“实现对算法为中心的数智社会规制……其目的在于构建促进和保障人们美好生活的法律秩序”。权利具有凝聚社会共识的社会功能,一是保障法律承认规则的形成,也就是可以支撑立法的合法性论证;二是保障法律的实施,增强法律的实效。基本权利作为一种话语体系,是对人工智能时代敏感个人信息保护规则设立合理与否进行评判的重要标准,有助于增强我国算法立法和个人信息保护立法在国际标准塑造中的主动性,为法律制度的完善提供重要指引。
五
结语:融于规范性的工具理性
面对人工智能算法决策技术的进步,学界有两种流行观点:一种观点认为,美好的未来需要代价,敏感个人信息被收集、处理、披露甚至是泄露,就是我们享受精准与个性化公私服务的代价;另一种观点强调,技术取代与技术引领将是不可知和不可控的。这两种观点其实都属于工具理性观。面对神秘的算法黑箱和强大的技术理性,人类决策经验是否应该让位于算法主导?敏感个人信息权利保护是否已经行权无能?当我们重新审视算法决策对敏感个人信息的处理问题时,可以清晰地发现其背后隐藏的双重价值导向,算法进行个性化识别,也凝聚社会化共识;算法解释权诞生于信息不对称,但是可以弥合信息不对称引发的群体分离;人类决策的价值型主张和知识性经验同样可以为算法反歧视制度所继承,技术理性也并非仅为说明算法黑箱的客观存在,而在于确保在复杂的技术场景中,算法的决策能够有效地捍卫宪法所赋予人的基本权利。技术理性与人文关怀并不是割裂或不可调和的,能够吸纳法律规范和价值的技术理性思维,才是应当被倡导的。在算法决策处理敏感个人信息时,应强调对个人敏感信息过程中基本权利的动态保护。
-向上滑动,查看完整目录-
《法律科学》2024年第6期目录
【法律文化与法律价值】
1.最高人民法院答复性文件研究
彭中礼(3)
2.民间文学艺术表达专有权的构建
易玲(23)
【科技新时代法学】
3.论视频的分类与独创性认定
孙昊亮(36)
4.双重秩序视角下的网络平台监管及其制度完善
周辉(49)
5.人工智能算法决策中的敏感个人信息保护
陈姿含(63)
6.AI生成内容场景下自然人作者身份认定的对应关系理论
王骁(76)
7.论肖像许可使用合同的法定解除
杨显滨(89)
【刑事诉讼法修改专题】
8.中国刑事诉讼法法典化的理论基础与现实期待
陈卫东(102)
9.刑事诉讼法法典化比较研究
韩旭(115)
10.中国刑事诉讼法法典编纂的路径
周新(125)
【部门法理与法律制度】
11.论地方政府债务问责制的完善
倪楠(137)
12.论债权转让表见规则
杨立新(149)
13.法典制度文明与行政法典编纂
张航(159)
14.当事人视角下的刑事鉴定制度
赵晏民(174)
15.新公司法视域下的减资纠纷诉讼模式研究
艾茜(188)
智能写作4.0
1.私有智库:单篇对话与向量检索的智能融合
自建知识库是智能写作4.0的一大创新亮点,它赋予了用户构建个性化知识体系的能力。这一功能不仅支持单篇对话的存储,使得用户可以轻松回顾和整理过往的交流内容,而且通过向量检索技术,用户能够实现对知识库内容的高效检索。这意味着,无论您的知识库多么庞大,您都可以通过关键词或短语快速定位到所需信息,极大地提升了信息检索的准确性和便捷性。
2.一划即达:法宝全库数据的划词能力
3.语言无界:19种语言的智能翻译大师
智能写作4.0的智能翻译功能,支持多达19种语言的互译,覆盖了全球大部分主要语言。这一功能不仅能够实现文本的即时翻译,而且通过先进的算法优化,确保了翻译的流畅性和准确性。无论您是需要将中文文档翻译成英文,还是需要将西班牙文翻译成法文,智能写作4.0都能为您提供准确、自然的翻译结果,让您的跨语言沟通和创作更加轻松。
4.模板王国:6000+文书模板与个性化定制的创意工具
智能写作4.0提供了6000+的文书模板,覆盖了法律、商务、教育等多个领域,满足不同用户的需求。这些模板由专业人士设计,确保了其专业性和实用性。此外,智能写作4.0还支持自建文书模板,用户可以根据自己的需求和喜好,创建个性化的模板,这不仅提高了文书创作的效率,而且使得文书更具个性化和专业性。
5.实用工具:赋能司法案例的深度检索报告
智能写作4.0赋能司法案例检索报告功能,是法律专业人士的得力助手。它不仅能够检索到最新的司法案例,而且通过智能分析,为用户提供案例的详细报告,包括案件的基本情况、判决结果、争议焦点、法律依据等关键信息。这一功能不仅极大地提高了法律研究的效率,而且通过深入的案例分析,帮助用户更好地理解法律条文和司法实践,为法律实务工作提供了强有力的支持。