随着人工智能技术前所未有的颠覆性创新发展,人类社会的发展已迈入新的智能时代。人工智能的发展越来越接近人类的智能程度,甚至有超越人类智能的趋势,人机关系呈现复杂性的趋紧状态,人类需要直面人工智能带来的伦理方面的新挑战。通过对人工智能概念的解析,人工智能伦理可能面临的现实挑战包括,人类科学精神减弱、人类劳动异化以及人类主体地位可能被边缘化等。人工智能伦理问题的源问题涵盖社会层面与技术层面,特别是关于“算法+数据”。应当坚持“以人为本”的法治原则,构建系统性的人工智能法律,制定人工智能伦理规制的重要制度,从而不断调整人与人、人与机器以及人与自然之间的和谐关系,用理性的制度保障人工智能技术的良性发展。
引言
2022年3月,中共中央办公厅、国务院办公厅发布的《关于加强科技伦理治理的意见》中指出:“科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。”当前我国科技创新发展如火如荼,同时也面临诸多新科技产生的科技伦理困境。ChatGPT之类的生成式人工智能的问世或将拉开人类社会的强人工智能时代的帷幕。人工智能作为现代技术发展的智能高阶化表现,在研究与应用过程中面临着不可调和的伦理问题。一方面,要鼓励技术创新、推动技术进步,另一方面,对技术的规制应当保持在合理的范围内,避免“管得过严”“管得过宽”“管得过死”,成为阻碍技术发展的桎梏,对于人工智能伦理问题的规制亦是如此。
一、人工智能伦理的基本认知
人工智能伦理属于科技伦理范畴中的一环。人工智能参与社会劳动,涉及人机合作、人机共生等方面的伦理问题,人类需要处理人与人、人与机器以及人与自然等多维度的关系。有学者认为:“‘人工智能伦理’是一种伴随人工智能技术研发和社会应用而必然出现的、针对用于评价决策合理性的道德规范出现不确定性时进行意义处理的沟通理论。”也有学者提出,伦理应当处理的是族群内部的各成员之间的关系,例如人类伦理调整的是人与人之间的关系,因此人工智能伦理也应当以处理人工智能体之间的利益关系为调整对象,但这与人类设想相悖,即应当正确处理与人类之间的利益关系。因此,当前人工智能伦理是一种人类视角下的种际伦理,是为实现人与人、人与人工智能、人与自然之间和谐发展的一套原则或规范的统称。
中国信通院发布的《人工智能伦理治理研究报告(2023年)》(下称《报告》)提到:“人工智能伦理是开展人工智能研究、设计、开发、服务和使用等活动需要遵循的价值理念和行为规范。”《报告》中提到伦理是人与人之间的行为准则和行为价值规范,为人们在不同的场景中的行为提供引导。而人工智能伦理以“增进人类福祉、尊重生命权利、坚持公平公正、尊重隐私等”为价值目标,在行为要求方面则坚持“人工智能技术做到安全可控、透明可解释”。
二、人工智能伦理面临的现实挑战
马克思指出:“可以根据意识、宗教随便别的什么来区别人和动物,当人们自己开始生产他们所必须的生活资料的时候……他们就开始把自己和动物区分开来。”劳动作为人的本质属性,不仅将人与动物区分开来,也是人类社会区别于自然界的重要标志。人类可以自觉地选择和调整劳动手段和方式,通过劳动活动有目的地改造自然界。在这一过程中,人类通过劳动创造物质财富和精神财富,不断地认识和改造自己,同时劳动也是人类认识世界、实现自身价值的重要方式。有学者认为人工智能以其超强的判断能力、决策能力以及输出能力,正在逐渐渗透并参与各个领域的决策过程和以人为主体的劳动实践中。
人工智能对人的劳动的异化不仅体现在对人类劳动能力和劳动机会的威胁,也体现在人工智能生成物对人类社会的改造面临各方的影响,或将背离设计目的、人类伦理而不受控制。
早在人工智能诞生之前,人类社会便普遍存在歧视。人工智能时代的数字偏见与歧视多以特定身份歧视为表现形式,个人的内心偏见是造成歧视的根本原因,与性别、种族、职业等传统歧视类型具有相似的内容形式,但通常以人工智能技术为表达歧视的新载体。歧视源自个人认知。个体习惯性对外在世界按照特定标准进行分类,在此过程中,处于维持积极认同和提高自尊的需要,不断强调相似性而夸大差异性,以自我为中心,划分为内群与外群。内群倾向于将褒义的刻板印象赋予内群,将贬义的刻板印象赋予外群,从而引起内群对外群的歧视和偏见。歧视通过数据嵌入人工智能,而当前技术的发展现状,决定了人工智能无法逃过歧视和偏见的渗透。
目前,国内外学界对于人工智能法律主体地位的争议主要存在是与非两种观点。持否定意见的学者大多秉持人类中心主义的理念,认为无论是弱人工智能、强人工智能还是超人工智能,本质都是人类创造物,其运行离不开人类预设的算法程序指令。较为流行的观点是“工具说”,即人工智能始终都是为人类服务的工具,未来也不可能出现具有独立意志的人工智能。也有学者从责任承担的角度进行论述,要求人工智能本身去承担法律责任不具备实现可能性,其所造成的危害责任最终仍是由“人”来承担。持肯定意见的学者可以分为两种流派。一部分学者站在未来的角度看待这一问题,认为未来一定会出现具有自我意识和独立思考能力的人工智能,当前应对赋予人工智能以法律主体资格的路径和模式等进行广泛探讨,为未来超人工智能的横空出世而可能产生的各种社会问题未雨绸缪,提供强有力的理论支撑和解决方案。另一部分学者则以ChatGPT类生成式人工智能的出现为转折点,认为随着技术的发展,人们也能创造出具有独立的自主意识的强人工智能或超人工智能,彼时,明确人工智能的法律主体地位将会是核心议题。
(1)人工智能是否具备意思自治能力
(2)人工智能是否具备权利能力
人工智能是否具备享有权利和履行义务的法律资格,主要从其是否具备独立财产并能够以此独立承担财产责任进行判断。由于人工智能不具备生物人的专属特性,因此强制要求人工智能承担如民法上的赔礼道歉、刑法的徒刑等人身责任对人工智能而言并无实际意义,因此财产责任便成为人工智能承担法律责任的主要形式。就人工智能是否享有独立财产,也存在支持与反对两种不同的观点。持支持态度的学者在认可人工智能享有法律主体地位的前提下,提出该人工智能享有生成作品一定的著作权,使用此生成作品应当向该人工智能支付一定的报酬,这笔费用既不属于生成式人工智能的研发者,也不属于发起指令的操作者,而是由该人工智能所有,因此当人工智能需要为自身违法或侵权行为承担财产责任时,可以以此类财产予以弥补、赔付。也有学者提出可以通过向使用者征税、设立赔偿基金等方式提高人工智能的赔偿能力,同时可以通过立法设立强制保险机制,明确保险缴纳的主体,以便对人工智能损害进行责任分配。持反对态度的学者则强调设立赔偿基金和强制保险制度这两种方式本质上并不需要赋予人工智能法律主体地位,因为承担赔偿责任的主体始终是自然人而非人工智能本身。
三、人工智能伦理带来挑战的深层机理
人工智能技术产生的最初缘由是为了帮助人类更高效地完成各项生产生活任务,因此人工智能技术深受人的观念活动的影响。人工智能作为人类劳动的产物,必然存在人类精神的标记和烙印,内含人的价值标准和价值判断,因此人工智能伦理深受人类伦理的影响。同时,“算法+数据”是人工智能的底层技术逻辑,技术层面的缺陷同样是人工智能在投入使用和运作过程中产生伦理风险的重要原因。厘清人工智能伦理带来挑战的深层机理,有助于完善人工智能伦理挑战的治理范畴和模式。
有学者提出,人工智能存在一种不以人的意志为转移的技术规律,这一技术规律具有深刻的社会属性。也就是说虽然人工智能的研发、操作等各环节都受到人类的影响或控制,但人工智能技术规律是从社会中产生,也必须服从于社会活动的基本要求。人工智能在特定的时期能够实现不同程度的发展和进步,它是由一定的经济、科技等实力决定的,同时人工智能作为现代产业,已经与国家实力紧密联系在一起,因此人工智能的发展情况深受所处社会发展状况的影响,人工智能伦理问题产生的根源也与特定时期的社会存在不可分割的联系。
人工智能发展的未来轨迹难以预测,但是帮助人类更精确、高效地把握事物一直都是人工智能技术创新发展的根本目标,从而实现实践活动的效率最大化,导致工具理性思想迅速蔓延并冲击以信念价值为行为导向的价值理性,使两者逐渐失衡。在一过程中,必然会出现人工智能研发者和使用者为了盲目追求效率和结果,忽视使用过程中的不公平、不公正等社会矛盾现象,加深固有的歧视和偏见。同时,伴随着未来人工智能技术突破发展瓶颈,原有的规范制度可能无法适应技术发展现状,制度规范难以实现与技术发展同步、同频,各类价值观念和文化思潮并行存在,科技规范的漏洞与失灵愈演愈烈,致使科技规范难以对失范行为进行有效调整和规制。
人工智能技术本质上依旧是“算法+数据”技术的再表现,“算法+数据”的强大运算功能不仅使人工智能具备自主生成内容的能力,同时也是造成输出内容可能包含歧视性内容的重要原因。人工智能一旦生成包含歧视性的内容,即证明输出结果背离了预设轨道并可能出现严重危害结果的技术伦理风险。若要进一步对人工智能技术造成的伦理风险的诱因进行探究,则必须要重回技术本身算法运作与数据保障的基本运行模式中展开分析,不仅各类算法运转失灵的情况导致人工智能生成物产生偏差,数据处理不当、准确性不足也是导致生成内容存在瑕疵的原因之一。
人工智能技术并不因其以数学和算法为运行基础而实现绝对的客观和公正,相反,算法在价值选择和价值判断上并非完全中立已成为社会共识,这也是法律要对算法进行必要规制的直接原因。当前算法已经深入社会生活的方方面面,我们不能简单地仅对算法造成的危害后果采取事后规制,而应当对算法或算法系统本身进行法律规制。人工智能算法嵌入在外形上表现为算法研发者通过技术性指令作用于特定的机器,这种活动具有较高的嵌入性,并推动了算法的机制化。将算法嵌入生成式人工智能的过程意味着算法主体固有的歧视和缺陷也将成为人工智能技术的风险源之一,会造成例如“算法歧视”“算法黑箱”“信息茧房”等技术风险。“信息茧房”是算法技术为使用者提供个性化推荐而造成的信息封闭现象,这种自我锁定的状态导致用户逐渐无法接触到“茧房”之外的其他讯息,从而加剧数字鸿沟和数字不平等。
数字鸿沟的概念源于工业时代知识沟和信息沟等现象,本质上是社会不平等的表现,其主要表现形式是由于数字技术的高速发展和技术伦理规制的缺位,导致不同个体在社会中处于不平等、不公平的地位,处于数据鸿沟劣势方的国家、地区、团体、个人等完全或相对地被排除在数字技术的收益之外。智能鸿沟是智能时代下以数据、算法为核心的数字鸿沟(数字鸿沟3.0)。随着算法、大数据、人工智能等技术取得突破性发展,智能鸿沟打破了社会信息传播的旧有模式,人类开始进入智能鸿沟的阶段。由于高新技术内在逻辑机制的复杂性和专业化程度较高,当前智能技术主要被全球科技巨头企业所掌握,因此由资本去驱动的智能数字平台成为智能鸿沟的核心主体。
不平等现象贯穿人类文明发展的始终,深嵌在社会、政治、文化等各个领域。智能鸿沟造成了与传统数字不平等相区别的新型数字不平等,不仅加深了传统数字不平等的影响范围,而且使“数字弱势群体”进一步扩大。算法设计不公开、平台兴起、数据资源占有不均衡等智能革命导致了技术运行过程中潜在的歧视与偏见,而新型数字不平等则正是在诸如算法黑箱、算法操纵等情况下催生出来。算法设计不公开、不透明会引发算法黑箱、算法偏见等一系列社会问题。算法运行挑战着人类的知情权和自主决策的权利,人类不再成为决定自己事物的主体,而是不加检验地信任算法代替人类作出的选择和决策,可能成为影响甚至是规范人类行为的新型技术行为。在这一过程中,掌握算法技术的机构成为决定个人选择的主导者,人类个体逐渐成为算法决策的被动承受者,长此以往,机构与个体之间就会形成交流不平等的状态。
以ChatGPT为代表的生成式人工智能能够通过自然语言处理等技术与用户进行“拟人化”互动,这在一定程度上将改变、重塑社会交往秩序,个体、群体和整个社会的结构将经历根本性的变革。一方面,人类逐渐习惯将社交活动的重心放置于数字平台,人们通过社交媒体、元宇宙等数字平台进行日常的交往交流,导致传统的面对面交往方式减少,“从而改变了人们对社会交往的期望和行为方式”。另一方面,依赖于算法个性化推荐技术,人工智能可以在与用户交往的过程中深入了解个体偏好风格、行为模式及社交方式,从而影响整体社交模式,排除个体个性化交流与发展,限制了多元观点和思想的融合,使整个社会陷入信息茧房。
四、人工智能伦理挑战的制度回应
制定法天然的稳定性导致其必然具备滞后性,往往也因此无法精准地对某项社会问题进行及时、准确的调整和规制。而生成式人工智能技术的涌现性、复杂性和高速迭代的特征,与法律的滞后性形成不可调节的矛盾。因此,为了达到更好的治理效果,应当采取“硬法”与“软法”相结合的规范体系。“软法”实际上是指那些不需要国家强制力保证实施的指导性、号召性规范,具有适应性强、灵活性高的特点,以行业规范指南、技术标准、自律公约等为主要表现形式。“软硬结合”的治理模式,既能确保“硬法”提供明确的底线性要求和坚实的制度性保障,同时也能够充分发挥“软法”的规范作用,根据技术发展的现实情况及时作出灵活回应,从而实现“软硬”互补、良性互动。例如,2023年10月由国家互联网信息办公室发布的《全球人工智能治理倡议》中呼吁“各国应当秉持可持续的安全观,构建开放的治理机制,促进人工智能技术造福人类”。放眼世界,针对人工智能技术治理原则的规范包括欧盟公布的《可信赖人工智能伦理准则》等。通过“软法”的出台实施,进一步明确生成式人工智能的伦理准则,为人工智能在研发、部署和使用阶段指明有序发展的方向和道路。
在应对人工智能为社会带来的各种风险挑战时,无论我们赋予其何种法律地位,解决法律责任承担问题始终是无法避免的。探讨人工智能责任承担方式的焦点在于人工智能能否由其自身承担责任以及责任能力的限度;如果无法以自身承担,那应当由何种主体对特定风险进行责任承担?结合人工智能产业链条,厘清上中下游的行动主体,对不同风险提出针对性责任承担的方式,有利于我们对人工智能责任能力进行研究。
(1)人工智能的责任类型
常见的法律责任包括民事法律责任和刑事法律责任。传统民法对于责任规定了过错责任和无过错责任两种类型,是否存在过错是对行为人主观的判断,前者要求行为人在实施侵害行为时存在主观过错,后者则强调的是一种法律的强制规定,在此情形下即使行为人主观无过错,也需要承担法定责任。现实中,人工智能所造成的侵权类型以侵害人格权益、知识产权为主,而由人工智能所造成的损害最终也会归于研发者或使用者。传统观点将人工智能责任与产品责任进行比较,尤其是认定使用者或消费者不存在过错的前提下,把责任归结于研发者或销售者,以侵权行为的事实或损害结果的发生作为责任认定的主要依据。而当前生成式人工智能已不同于一般的产品,通过人机交互,一方面不断输出接近人类理想的答案,另一方面能够收集用户提供的信息,从而实现数据的更新、迭代。在这种情况下,就会发生某一侵害行为完全脱离了预先设定程序而自主产生的可能性,而研发者或销售者对这一侵害行为具有不可预见性,因此由上述主体承担责任不利于社会公平。人工智能担责的主要目的在于弥补损失,而这一目的在很多情形下可以通过财产责任得到有效实现,这也与人工智能作为财产性责任主体具有内在一致性。
根据近代刑法原理,刑事责任通常需要以意思自由为基础,而意思自由的核心要件即辨认能力和控制能力,两者缺一不可。辨认能力是指行为人对自身实施的行为在刑法意义上的性质和后果的辨别和认识能力;控制能力是指行为人能够自决定是否实施违反刑法的行为的能力。有学者从ChatGPT类生成式人工智能不具备理解能力和判断能力的角度展开分析,进而认为其并不具备遍辨认能力和控制能力,得出“ChatGPT类生成式人工智能具有刑事责任能力与刑法理论相悖”的结论。也有学者提出ChatGPT类生成式人工智能似乎具备独立意志和自主意识,肯定了不具有自然人特征但具有独立意识和意志的新物种可能成为刑事责任主体的观点。对于ChatGPT的诞生是否迎来了人工智能的“技术奇点”尚未定论,但可以确定的是在未来出现具有完全独立的辨认能力和控制能力的强人工智能或超人工智能的情况下,赋予人工智能刑事责任能力具有实现可能性。
(2)人工智能的责任主体及责任方式
结语
往期精彩回顾
包于宏等|防范化解重大风险视域下优化自贸区营商环境的法治路径——基于舟山片区的探索实践
罗晓琴|论长三角生态绿色一体化发展示范区执行委员会的法律地位
杜佳璐|构建通用人工智能的人机协同治理方案研究
李潇潇|人工智能侵权民事责任研究
陈建军|人类参与视角下人工智能生成物著作权法分类保护研究