岳平:(1959—),女,江西南昌人。上海政法学院刑事司法学院教授、博士,湖北省高校人文社科重点研究基地社会治安治理研究中心特聘研究员。
苗越:(1997—),男,江苏建湖人。上海政法学院刑事司法学院2020级硕士研究生。
摘要
随着人工智能、大数据的快速发展,社会已经进入了算法社会。算法已经全面渗透于社会经济、生活及管理的运行。然而算法并非是完全客观、价值中立的技术。算法运行过程中产生的偏见及问题,其本质是社会偏见在人工智能时代的映射,逐渐显现侵害社会公众的人格平等权、隐私权,并对数据安全形成威胁甚至破坏,从而导致对社会危害现象的发生。因此,不应禁锢于算法中的技术乌托邦理念,通过把握算法偏见产生的环节及其存在的法律及事实风险,减少其因不确定性危害风险带来的对社会秩序的冲击,有必要及时建构法律和综合治理的风险防控体系,并将对算法偏见的防控治理纳入常态化社会治理体系中。
关键词:人工智能;算法偏见;治理防控
一、算法问题现象:算法与算法偏见现象产生的环节
算法的英文名称原为“algorism”,意指常见的加减乘除等数字运算法则,后因9世纪波斯数学家al-Khwarizmi在数学上提出了算法这个概念而在18世纪演变成为“algorithm”。在经典的计算机科学教科书中,算法通常是指为了实现特定目标而通过设立一组有限、明确的操作步骤,将给定的命令输入进去来转化为所需要的结果。区别于传统的算法范式,人工智能先锋人物杰弗里·辛顿提出了深度学习算法的论点,而目前引起大家讨论和争议以及本文讨论的都是深度学习算法。
算法在实际被投入应用前,要经过问题定义与机器学习和训练两个阶段。问题定义简单来说就是把明确了的任务转化成具体变量,而机器学习和训练阶段大致可以简化为三个环节:输入环节→学习环节→输出环节(具体细分为九个步骤,如下图所示)。输入环节主要是对所收集的能够准确反映出定义问题的数据进行清理、筛查;学习环节是依靠计算机自身的处理能力,选择模型将前个环节所筛查的数据再次进行分析、完善;输出环节是最后一个环节,通过模型处理得到对应结果。从整个运行的步骤不难看出,偏见贯穿了整个过程。
(一)运算前的偏见
1.算法运行规则的“自带偏见”
当计算机需要运行完成特定的任务时,就要编写特定的算法。无论是问题定义,还是数据收集、模型的选择,算法设计人员的主观意识总是有意或无意融入整个运行过程,他们的知识背景和立场是否受过专业训练,是否有足够的背景知识及理念的构成,这些都是对算法公正性、客观性的挑战。有国外研究团队通过选取并考察了微软和Facebook等大公司支持的图像训练数据集MSCOCO发现,一些标签与性别深度绑定,比如系统会认定站在厨房、做家务、照看小孩子的人为女性,而开会、办公、从事体育运动的则是男性。此外,一些企业还用算法对所接收的简历进行筛选,若是该企业不想招女职员,就会在设计该算法时设定不利于女性求职者的内容。
2.输入数据中的偏见
(二)运算中的偏见
算法的运行是把数据输进既定的算法模型按照程序步骤输出运算结果,整个过程看似中立无偏见,但事实上并非如此。算法系统就像是个“黑箱”,即机器的学习和训练是不为外人所熟知的,机器学习与环境是离不开的,它在与环境信息交互的过程中学习和复制种种带有偏见的行为。2016年,一款由微软公司专门为年轻人推出的智能陪聊机器人Tay,在经过不到24小时与年轻人的聊天学习后,变得脏话连篇,言论带有种族歧视,被迫下架。这个例子有力地佐证了机器学习在过程中会产生新的偏见的观点,而距离原定目标,即靠实践经验吸收优势予以补充模型的想法相去甚远。“机器学习就是程序通过实例提取模式,并使最初的算法或模型在实例中不断优化的过程。”算法不能决定用户输入数据的性质或特点,只能被动对输入的各类数据进行学习,换句话说,若输入数据的互动者向算法输入了具有偏见的新数据,那学习之后的算法就是一个偏见算法。
二、现实困境:算法偏见的潜在风险与危害
随着人工智能和互联网的发展,我国已经进入了数字时代,算法充斥着我们日常生活的各个领域,如教育、医疗、刑事司法,甚至在一定程度上取代了公权力决策。随着人工智能的不断发展,不同国家、地区、行业之间,由于对信息的拥有、应用程度以及创新能力的差别,导致信息落差的现象愈发严重。“没有历史深度和社会深度的计算深度只是浅薄学习,而非深度学习。”对算法偏见带来的潜在侵害风险的社会治理虽然已经开始起步,但仍然任重而道远。
(一)对公民平等权侵害的风险
(二)对公民隐私权侵犯的风险
(三)对数据安全破坏的风险
根据我国2021年6月10日刚通过的《数据安全法》第三条规定:“数据处理,包括数据的收集、存储、使用、加工、传输、提供、公开等。数据安全,是指通过采取必要措施,确保数据处于有效保护和合法利用的状态,以及具备保障持续安全状态的能力。”算法系统是人们在互联网时代下处理数据的重要工具,带有偏见的算法因其设计人员的偏见或自身的不当深度学习,一方面过度采集数据,利用数据间的关联程度进行溯源,窥探到人们、企业的核心数据,很大程度上容易造成个人信息和商业秘密的泄露;另一方面,算法在深度学习中会基于追求数据面的完整而去汲取不合适的内容,比如前文所述的陪聊机器人Tay,在与年轻人的聊天中学习了不少的脏话,在一定程度上破坏了数据完整性。因此,通过收集对其认为有一定价值的数据并进行推导的算法程序本身对数据安全构成了威胁,并且这种破坏会波及整个网络系统。
三、正当性求解:规制算法偏见的必要性
(一)法律规制的必要性
其次是民事法规制的困境。面对算法偏见所引发的侵权问题与违法行为,关于如何归责、由谁承担责任、归属于哪个部门法等问题,我国当前的法律规范尚无明确规定。以无人驾驶汽车Uber伤人案为例,对于在这场事故中究竟是对设计者、经营者还是驾驶员追责存在不同观点和争议。根据《民法典》“侵权责任”编第四章“产品责任”的规定,我国采取的是过错责任原则,生产者、销售者以及运输者、仓储者之间的责任分配明确。但是从无人驾驶汽车案来看,归责思路并不是传统侵权意义上的归责,而是要考虑导致侵权的发生究竟是操作失误还是设计缺陷,这一点在民事法律上尚未有明确的规定。
(二)价值导向的紧迫性
1.算法应凸显人类主体地位
人是认识世界、改造世界的主体,这一观念为所有人知晓,然而随着科学技术的迅速发展,机器人无论是在意识还是在创造性方面都已经能向人类发起挑战,柯洁败给阿尔法狗的例子就是最好的佐证。尽管算法给人们的日常生活带来了极大的便利,但在一般情况下,算法已将我们视为可计算、可预测、可控制的客体,通过对我们的消费心理、爱好等深入学习分析,从而推断出我们所心动的“物料”。具体而言,算法对用户提出选择产品的建议,并为用户作出决策,这意味着大多数人失去了自由选择的权利,接受到的都是单一的信息而无法接触多样化信息,视野逐渐变窄,而个人自主性则不断减弱。从法律层面来看,人类始终是应然和实然的主体,每个人都应享有平等权,在数字时代下,更应该突出人的主体地位,对技术施以一定的法律规制,从而使其更好地为我们所用,而不是放任其肆意发展,使得人类成为它所“操控”的客体或是成为被动的服从体。
2.抑制算法放大的人类偏见的必要性
真实的世界里,偏见无处不在。人类偏见一直都是复杂的社会问题之一,很多国家为了减少偏见而通过立法赋予不同群体平等权,给他们提供更加公平的机会。而在数字时代的今天,随着人工智能的普及,算法却加大了这种人类偏见,即算法偏见本质上是一种社会偏见。传统观念坚持的是一种“技术乌托邦”的状态,即大多数学者认为技术始终处于中立的立场,它不受人类思想的左右。但正因为算法在观念上被认为是由数据和代码所组成,是客观的、公正的,大量的算法才更容易地充斥着我们日常生活的方方面面。然而,实践表明,看似中立的算法其实并不绝对客观,由于其较强的可操作性,反而将人类偏见进行了放大。就如前文所述,2015年的谷歌公司开发的图像识别算法竟错误地将一些黑人的照片分类为“大猩猩”。因此,有必要对此建构针对性的抑制算法偏见的监管机制。
3.保护公民人身、财产安全的必要性
四、建构全方位对算法偏见的规制体系
(一)法律规制体系的建构
首先,行政法的强化规制。在大数据时代,公民个人信息保护的重要性不言而喻,算法程序的运行同样需要融入保护公民个人信息的设计理念。作为前置性法律治理功能的行政法规,行政法的监管和预防必不可少。目前的《网络安全法》中虽然明确了网络运营者的主体资格,包括电子信息服务提供者、app下载服务提供者等,但主体的多维度联系性使得算法程序的运行变得更为复杂化。因此,为了降低侵害公民个人信息的风险,加强网络监管力度,有必要对该法第四章的规定进行完善,对研发人员、经营者等主体在研发、经营的过程中,坚持保障公民个人信息这一原则,不得增加获取及过度利用个人信息的权限,一切均以用户的知情、统一范围为准,平衡人工智能发展前进性和保障信息安全的关系。值得重视的是,尽管有网络安全法的规制,对于已步入人工智能的当前社会而言,行政法对此的规制体系仍然较为薄弱,依笔者所见,应尽快建构适合针对人工智能运行尤其是对算法偏见有具体监管措施的行政法体系。
(二)技术伦理的规制
(三)算法偏见风险防控的行业举措
1.建构行业道德伦理规范,约束算法设计者的行为
算法系统充斥着人的偏见,是对社会偏见的映射。算法设计人员的主观意图会融入算法系统的设计研发过程,因此,为了消除算法偏见带来的危害,很重要的一步就是约束算法设计研发人员的行为,强化其道德自律,建立起行业道德伦理与规范。首先,应建立对算法研发人员统一培训制度,该制度旨在通过全国统一培训,达到使每位即将参与具体算法设计研发的工作人员对算法程序的基本概念、基本内容以及对数据的识别、性质等都有统一固定的认识,这避免了因区域性差异或主体意识偏差带来的错误,有效提高了算法设计的公平。其次,确保每位设计研发人员定期接受道德培训。科学技术推进社会发展,也能影响道德的演进方向,道德也影响科技的发展。应积极引导“技术道德”,使之融于算法设计者的内心。再者,提高设计人员的偏见识别能力。通过学习大量偏见案例,对基本的偏见行为能够区分,不仅自己设计时不该注入偏见,也要对同伴的偏见进行制止。最后,要强化政府和企业对算法设计研发人员的监督,不仅要定期抽检研发者的培训情况,还要对他们围绕设计规则与程序的陈述进行评估。约束算法设计人员的行为是消除算法偏见的必经之路,清晰认识道德与技术的关系,使算法的设计符合主流价值观。