原创张学博王涵睿上海市法学会东方法学收录于合集#2023世界人工智能大会法治青年论坛文集17个
张学博
中共中央党校(国家行政学院)政治和法律教研部教授
王涵睿
中共中央党校(国家行政学院)硕士研究生
要目
一、生成式AI发展过程及现状
二、生成式AI对我国当下法律体系的挑战
三、生成式AI规制制度构建的域外经验
四、生成式AI法律规制的未来展望
结语
研究机构OpenAI发布的ChatGPT聊天机器人掀起了人工智能的新一轮研究浪潮,也引发了公众对于生成式AI可能威胁人类发展的担忧。目前,ChatGPT可能会引发著作权归属争议、隐私数据泄露、社会不平等、公序良俗受到冲击等问题。对此,要结合我国实际情况采取事前审查、事中监管、事后追责等方式,为生成式人工智能行业平稳有序健康发展保驾护航。
2022年,人工智能领域的新热点无疑是“生成式AI”(GenerativeAI)。不同于过去的“分析式AI”(AnalyticalAI),生成式AI采用深度合成技术,通过各种机器学习(MachineLearning)方法从数据中学习对象的组件,进而生成全新的、完全原创的内容(如文字、图片、视频)。这些内容是以训练数据为基础生成的,并不是简单地对学习数据进行复制,也不是对原有数据进行打乱重组。
生成式AI首先在图像生成领域取得重大突破。2022年4月,美国人工智能研究公司OpenAI发布了Dall-E2,这款图像生成AI可以根据用户对内容的描述和形式的要求迅速生成对应的图形,且不限制用户进行夸张的描述。随着言语描述生成图形的AI概念迅速爆火,比Dall-E2表现更出色、更人性化的StableDiffusion模型迅速走红。StableDiffusion可以按照使用者的需求,产生一系列的照片。如果使用者认为某一图片更好,就可以把它作为种子保存起来。通过这种方式,该软件能够记住该图像的基本组成风格,并在以后的图像制作中根据该图像作一些修改,使用户得到更为满意的图片。
著作权等知识产权归属争议加剧
此外,著作权的权利义务归属仍不明朗。ChatGPT使用协议第3(a)条指出“在现行法律允许的范围内,用户拥有输入内容的所有权,且在遵守协议前提下,OpenAI公司向用户转让输出内容的所有权利权益。从双方职责划分来看,OpenAI公司遵守法律法规及协议,可在必要的情况下可以使用用户提供的内容。用户对内容负责,包括确保不违反任何现行法律或用户条款。”OpenAI企图通过这一内容强调ChatGPT的技术中立原则,但这项条款却颇有推卸责任的嫌疑。基于ChatGPT算法模型的复杂性和“算法黑箱”的存在,普通用户很难完全了解ChatGPT的操作逻辑,对其产生的内容没有对应的预期,司法人员也无法通过检查和分析来判断侵权行为是否在算法运行过程中产生,导致用户实际上处于不利地位。
隐私数据、商业秘密泄露风险增大
造谣成本显著下降
一些别有目的的使用者可以利用生成式AI模型,自动产生大量有说服力的误导和不实信息,以达到暗中操控舆论的目的。ChatGPT的横空出世为这一问题带来了更大的挑战,即使是最普遍的AI换脸都需要被侵权人通过细节来证明内容虚假,那么面对GPT这种拥有超强学习能力且可以自主生成看起来毫不虚假的视频或图片的生成式AI,未来被侵权人该如何有效地收集证据来对抗侵权人,值得深思。
冲击公众对法律的认知
2023年1月30日,哥伦比亚一名法官在审判一起孩童医疗权案件时使用了ChatGPT,并最终作出一份关于自闭症患者免于支付治疗费用而获得医疗服务的法庭判决,引发争议。这名法官表示,在与
ChatGPT的沟通过程中,它不仅援引了法律来进行说理,还指出宪法法院曾有过类似的有利判决。最终这名法官采用了ChatGPT的答案,但表示“ChatGPT和其他类似程式在拟定审案文本草稿的时候很有帮助,但目标并不在于取代法官”。尽管法官宣称,使用ChatGPT来协助审判具有诸多优点,但由于现有的证据表明,AI可能会带来偏见,甚至是错误的信息,因此,许多人工智能伦理研究人员并不赞成这种做法。关于这个问题,我国最高人民法院于2022年12月印发了《关于规范和加强人工智能司法应用的意见》,其中明确指出:无论技术发展到何种水平,人工智能都不得代替法官裁判,人工智能辅助结果仅可作为审判工作或审判监督管理的参考。
人工智能对于法律体系的冲击远远不止于此。随着网络技术的发展和日趋成熟,人们在购买法律服务时,往往会选择更加标准化、能够由电脑操作的法律产品,因为这意味着成本的降低。人工智能的出现使得成本变得更低,它可以整合全局性数据,使公众从最初的仅认识法律规范,演变成了解条文的运作结果。ChatGPT出现后,基于其强大的学习能力,人们不仅可以通过它得到问题答案并明确法律依据,甚至可以输入自己的信息,让它给出个性化的意见和建议。在人类与人工智能的互动过程中,人们对于法律的认知实际上由原来对单一的立法权威所制定法律规范的认识,逐步被重构为不同的当事人与不同人工智能之间复杂博弈之后形成的状态。当法律活动的参与者与法律规则紧密相连时,规则算法已与现实情况相结合,对于不同的个体来说,即使他们承认自己被一条普遍的法则约束,产生的个体化影响也是不容忽视的。法律规范从一般化到个人化的转换,其实质是一种或然性的转化。正因如此,如果ChatGPT受到大量错误信息的训练,公众的认知就会与专业司法团队的判断形成冲突,最终势必导致一方对另一方的妥协。
垄断现象愈加严重
在人工智能高度发达的当代社会,一些本属于私人的财产或自愿或强迫为互联网巨头企业共同享有,这给他们带来了巨大的垄断利益,且这种垄断利益遵循收益递增规律。在用户与ChatGPT对话的过程中,出于效率的考虑,他们会将自己的信息交给AI使用。长此以往,掌握公众数据的人工智能企业将逐渐拥有实质权力。生成式AI的兴起可能会加剧科技巨头公司的垄断地位,造成市场实际不平等现象。据估计,OpenAI需每天花费10万美元来支撑ChatGPT的运行,这其实是很多企业无法进入这个行业的成本壁垒。大型互联网公司不断投入研发资金,小企业又无法进入市场与之抗衡,导致行业垄断现象愈发严峻。
对公序良俗提出更高挑战
ChatGPT可能会使主流群体的偏见和歧视更加隐蔽。尽管OpenAI在发布产品前投入了大量的人工运力进行训练,以使它尽量地保持其中立的态度。但随着ChatGPT面向公众公开,大量用户成为训练它的主力军,OpenAI进行人工干预的成本显著增加,这就使得歧视问题更加无法避免。研究者们从GPT-3开始就在思考这个问题,但一直没有找到有效的对策,只是给了一些类似于“创可贴”的方法,不能从根本上解决问题。ChatGPT以“理性、中立、客观”自居,实际上其本质已经超越了技术工具的范畴,而是“一种涉及权力配置的意识形态引导的技术范式”。在人工智能技术所形成的政治科技互嵌、真假混杂的背景下,意识形态风险表现为“隐蔽化、全域化、复杂化、动态化”的特征,而AI可以准确模仿极端主义内容,并将个人激进主义化为极端主义意识形态。简言之,使用者根据其自身的主观意志与价值判断对ChatGPT进行训练,那么它将会延续这种价值判断。
人们对生成式AI这一新兴事物的认知仍然随着它的发展在不断变化,目前各国没有单独针对它颁布法令。但由于其本质上仍属于人工智能,因而对各国关于人工智能的法律规范进行分析,也有助于我国未来应对挑战,并为制度构建指引方向。
美国在促进发展同时兼顾数据保护
2019年2月11日,《维护人工智能领导地位的行政命令》的签署,标志着美国人工智能计划的启动。该命令指出联邦政府将制定跨技术部门的人工智能发展准则,并制定完整的人工智能治理方法,以增加对人工智能系统的信心,各部门的专业组织也可以提供专家意见。除此之外,《国家人工智能研发展战略计划:2019更新版》中明确表示必须认识并处理人工智能对法律及社会的影响,以保证其安全性和可靠性,为人工智能培训和测试创造适宜环境和开发公共数据集,并为衡量和评估人工智能制定基准。可以看到,尽管在立法层面上美国提出了制约AI的方案,但在后续动作中仍是以鼓励发展为首要目的。
欧盟在数字领域的发展略逊色于美国,因此它对人工智能采取了更加侧重立法和监管的路径。2015—2017年,欧洲议会通过了《欧盟机器人民事法律规则》,目标是在欧盟范围内,建立一套有关人工智能的民事规则,包括其法律地位、民事责任、设计原则、知识产权、标准化和安全保证等。2018年12月,欧盟委员会人工智能高级专家组发布了《可信赖的人工智能伦理准则草案》,建议将“值得信赖的人工智能”作为技术开发和应用的前提条件和原则,这包括“道德目标”和“技术可信性”的内容,强调人工智能的开发和应用必须符合欧盟条约和基本权利宪章中的基本原则和价值观。为此,可问责性、普遍性、人工智能自主决策的监督、非歧视性、尊重隐私、可靠性、安全性和透明度等原则必须被纳入人工智能发展的初始阶段,并在后续发展中不断予以保证。
在数据保护方面,2018年5月25日生效的通用数据保护条例(GeneralDataProtectionRegulation,简称GDRP)表现了欧盟对数据问题的重视程度。该条例旨在直接限制企业收集公民信息并利用算法的权利,也对滥用免责条款规避法律责任的问题进行了有效的控制,以确保数据的安全和透明处理。GDRP的针对对象非常广泛,既包括欧盟境内处理个人信息的公司,也包括境外处理欧盟公民个人信息的公司。在处理原则上,GDRP明确表示需要遵循目的限制、存储限制、完整性和保密性等原则,同
时也赋予了欧盟居民诸如被遗忘权等关键权利。当ChatGPT在处理个人信息隐私时,它需要遵守GDPR关于数据处理的要求,如果企业未能遵守规定,将会被处以2000万欧元(2170万美元)或高达年收入4%的罚款。意大利对OpenAI的拟处罚决定就是基于此条款作出的。
作为欧盟内具有代表性的国家,德国的AI技术发展较早,但是后继乏力。德国在制造方面有着天然的优势,拥有强大的人工智能研究基础。然而,由于德国在人工智能领域的人才与投资上并没有那么积极,这就给知识转化造成了一定的阻碍。德国的人工智能研究主要集中在解决其伦理问题上,其中最关切的就是它潜在的操控、提供不实信息,以及可能导致失业的风险。德国在人工智能方面的立法比较落后,而且其对个人隐私、数据的保护非常严格,这些都不利于AI对信息的获得,造成了其发展的后劲不足。
实践经验分析
坚持生成式AI为非法律主体
对于人工智能可否在法律上享有主体地位,学界存在诸多争议。刑法学者大多反对人工智能成为刑事责任的主体;而在私法领域,在私法领域,人工智能的法律资格之争主要分为全有、部分、全无三类,分别主张人工智能与自然人的主体性完全等同、人工智能类人型的准主体性、人工智能仅为与主体相对的“物”的存在。笔者认为,尽管目前AI的发展突破了传统边界,具有“生成式”特点,但仍不应将其作为法律主体对待。生成式AI,虽然它在某些方面已表现出学习能力,不需人类训练即可自行得出答案,但算法仍为它的底层逻辑。换言之,生成式AI依旧没有独立的思考能力和自由意志,没有作为理性主体的基础,不符合以人为主体的法律规范的设定前提。
此外,赋予生成式AI法律主体地位无助于规范其行为。如人工智能作为法律主体,那么它就应当承担相应的民事、行政或刑事责任。然而,就民事责任而言,因AI不具有独立财产能力,在侵权行为发
生后缺乏偿付损失的能力,受害人也就不能获得实际的赔偿或补偿。司法判决的“执行难”问题会更加难以解决,致使法律无法起到救济作用。就行政和刑事责任而言,尽管在一些例子中可以看到Chat-GPT在恐吓下对于“生死”有同人类几乎一致的理解,但这种理解也是在人类的训练下产生的,其本身并不会产生直接感受,因而行政和刑事责任中限制人身自由的惩罚对ChatGPT来说形同虚设,也就无法发挥法律本身的惩戒作用。更为重要的一点是,如果将生成式AI视为法律主体,那么程序员在修改其内部代码时,是否可以被认定为“故意损害他人身体”从而要求程序员承担法律责任?显然这完全不符合公众的认知,也不恰当地扩大了法律的适用范围。
将生成式AI视为法律主体也会弱化人的主体地位。长久以来,人工智能一直被作为人类降低劳动成本、提高生产效率的工具,生成式AI的出现也不会打破这一局面。若承认AI作为法律主体,人与人工智能在法律上即处于平等地位,人类也就失去了将它作为工具使用的合理性,亦不能以保护个人信息等为由限制其发展。世界的属人性会受到严重冲击,最终人类有可能成为人工智能的附属品。
对生成式AI进入国内市场进行有效监管
在批准ChatGPT进入中国市场前,需要考虑至少三方面的问题:第一,对敏感信息的审查管控。在不同文化背景下,涉黄、涉政、违法内容均会有较大差异,监管重点也大有区别。此外,西方国家的歧视问题主要围绕的是种族问题,而中国的歧视问题则更多地集中在权力、金钱、势力等因素上,因此暗含的歧视风险也必须成为审核重点。第二,进行数据安全评估。这里的数据安全,不仅指ChatGPT本身对于用户数据的利用和保护,也包括第三方侵入所可能导致的泄漏风险。在各种交易平台上,已出现了很多VPN供应商、“中间商”,甚至是盗版ChatGPT的卖家,若ChatGPT进入中国市场,可能导致恶意第三方获取信息更加便利,致使ChatGPT本身的数据保护条款成为空文。第三,对我国企业独立研发属于本国的生成式AI的阻碍程度进行分析判断。国内许多互联网公司也纷纷表示要推出自己的生成式AI。如同意ChatGPT等国外产品进入,则要保证其不会大范围挤占国内市场,从而保证本土产品能够持续发展。
国家有关部门适当介入保障用户数据安全
对于类似ChatGPT这种具有强大深度学习能力的生成式AI来说,仅有代码层面的制约和公众的监督是远远不够的,必须有国家强制力保证其被合理使用。在组织机构层面,可以建立专门机构如隐私数据保护部门,以便采取专业措施。
1.制定更为详细的法律法规
2.建立用户数据库,对用户是否具有使用生成式AI的能力进行分析
未成年人能否不受任何限制地使用ChatGPT这一问题越来越受到各国重视。意大利个人数据保护局封锁GPT的第三条理由即为“由于无法验证用户的年龄,ChatGPT让未成年人接触到与发育程度和意识相比,绝对不合适的答案。”针对这一问题,我国数据保护部门可与人工智能企业合作,将已在各类应用程序中投入使用的“青少年保护模式”运用至ChatGPT等生成式AI,进而规范未成年人的使用范围。青少年模式的概念源于国家网信办的指导意见,当用户进入模式后,其使用时段、服务功能、在线时长等均会受到限制,且所能接收到的内容全部源于青少年内容池。当青少年模式运用至Chat-GPT后,不仅可以有效遏制代写家庭作业的情况,还能保证青少年接收到与之年龄相匹配的内容。同样,可以仿照“青少年模式”相应推出“员工模式”,通过对企业员工输入对内容进行限制,以保证其在提高工作效率的同时避免泄露商业秘密。
3.加强对生成式AI研发企业的内部监管
鉴于人工智能专业性强的特点,我国可在数据保护部门中设立专门技术岗位,对全过程进行监督。在最初的准备阶段,人监管部门应认真审查研发人员、企业和营销方提供的各种方案,研发人员和企业应根据需要向监管机构披露算法的细节。在人工智能运行过程中,监管机构应定期审查并进行现场检查,做好登记备案,尽可能确保没有遗漏。此外,还应该对生成式AI发展状况进行定期的预测和分析,必要时对其进行跟踪研究,以备不时之需。如果AI出现问题,监管机构可以从专业角度评估风险原因,并以更全面的方式指导实施。此外,监管部门应引导AI行业制定行业标准,形成行业内部制约,进一步规范企业行为。
定期检查并培养生成式AI的学习情况
强化科研伦理观念,明确研发底线
在发展人工智能的过程中,必须坚持“科技以人为本”和“科技为人服务”的理念,时刻明确科技发展的道德底线。信息技术发展的出发点和落脚点,应该是促进人类的进步和社会的繁荣。人工智能的发展应该按照“社会效用最大化”的逻辑进行,即把技术看作是一种中性工具,是一种基于社会本位的效用总和,并以此为基础实现更大的社会价值。通过创新技术和产品,满足人们日益增长的需求,从而提高生活质量和改善生活条件,促进人类社会的发展和繁荣。
具体来说,除了要提高行业准入门槛、在生成式AI进入市场前进行道德审查外,在软件开发过程中也应经常对研发人员和企业管理人员进行理论培训,将公序良俗、道德法律等基本概念深入心中。要树立正确的科研伦理观念,把人的价值作为科学研究的底线,正确处理科学研究和人的伦理问题,不能为盲目追求最大利润而忽视了伦理研究。
原标题:《张学博王涵睿|生成式人工智能的法律规制——以ChatGPT为例》