摘要:在当前生成式人工智能的运行过程中,个人信息面临着收集范围与限度不明、算法违规处理及生成错误结论等问题,因此亟须构建个人信息保护的全流程合规体系。在准备阶段,生成式人工智能应该基于最小必要原则来明确合规收集范围,并将个人信息进行碎片化处理来合规限制收集深度。在运算阶段,生成式人工智能应该在自我学习时通过知识蒸馏构建学生模型来保证算法合规,并进行安全评估与算法备案。对一般类型个人信息、敏感个人信息及生物特征信息采用不同的合规处理模式,并在反馈阶段标注存在风险的个人信息,反向推动算法进行自我改进。在生成阶段,当生成错误结论时,合规监管部门应该分类审查生成式人工智能在个人信息处理上的缺陷,并从合规有效性标准、算法运算逻辑及实质法益损害这三个方面判断平台能否实质出罪。
关键词:生成式人工智能;个人信息;ChatGPT;合规
一、生成式人工智能应用过程中个人信息保护的问题剖析
在生成式人工智能的运行过程中,由于技术模式升级、法律规范滞后及合规监管缺失等原因,导致其在处理个人信息时存在一定的风险。一是,在准备阶段,生成式人工智能在个人信息的收集范围与收集限度上存在争议。二是,在运算阶段,算法在处理个人信息时容易导致个人信息泄露或者被违规加工。三是,在生成阶段,生成式人工智能容易生成虚假错误结论,并引发刑事制裁风险。鉴于上述不足,亟须构建合规制度来消弭个人信息所面临的风险。
(一)个人信息收集的范围与限度不明
在生成式人工智能的运行过程中,个人信息作为敏感且价值较高的数据类型,容易因为不当收集而引发风险。早在2023年3月,意大利当局就认为ChatGPT收集用户个人信息的模式缺乏合法基础,并暂时封禁ChatGPT,其他欧盟国家随后也表示将对ChatGPT展开相应调查。与之相对,2023年7月10日,国家互联网信息办公室等七部委联合发布了《生成式人工智能服务管理暂行办法》(以下简称《管理办法》),其中第11条规定“提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息”,则直接点明个人信息的收集流程坚持必要性原则,但对于其实质内涵却并未详解,最终导致个人信息在收集范围与限度上存在争议。
第一,生成式人工智能中个人信息的收集范围不清导致其在横向上无端扩张而收集越界。生成式人工智能为了结论的准确性会倾向于尽可能多地收集个人信息,导致很多与生成结论无关的个人信息被涵括在内,并因此存在泄露风险。此外,在准备阶段,被匿名化处理的个人信息已经偏离了传统的个人信息范畴,对于个人信息的处理实际上是一种全新的整合碎片化、匿名化的个人信息并提取关键性要素来生成新的创造性结论的“深度处理”行为,所以匿名化个人信息的收集范围也需要随之调整。第二,生成式人工智能中个人信息的收集限度不明导致其在纵向上过度收集。在只需收集浅层个人信息就能得出结论时,生成式人工智能过度深入地挖掘某一类个人信息,虽然是为了增强结论准确性,但实际上却会造成个人信息冗余,给个人信息主体带来潜在风险。总之,当前生成式人工智能中复杂的神经网络算法、庞大的开源数据库、动态的算法学习都可能导致个人信息被挖掘的广度与深度超出其自身的原有内涵,导致个人信息面临横向上的收集广度越界与纵向上的收集深度越轨,从不同方向给个人信息造成威胁,甚至通过与其他匿名化个人信息相结合而产生新内容与新风险,所以在收集过程中亟须进行合规监管。
(二)算法技术失范违规处理个人信息
(三)平台生成错误结论面临刑事制裁
生成式人工智能平台主要通过算法来控制个人信息的收集、筛选、处理与分发机制,一旦其生成虚假错误结论,将会误导公众,甚至影响社会秩序的稳定。事实上,生成式人工智能技术在处理个人信息时并非完美无缺,比如ChatGPT在识别不同语言的价值标签时,对795个仇恨性言论仅筛选出636个,准确率为80%,因此生成错误结论成为平台运营过程中难以回避的问题。有鉴于此,当生成式人工智能产生错误结论时,应该尝试通过合规监管制度来限制错误结论的产生与扩散,而刑事归责路径也应该根据技术现状予以调整。换言之,针对生成式人工智能平台构建个人信息保护的合规制度,不仅能监管算法技术运行,发掘平台的天然治理优势并激发起其治理活力,还能通过合规制度为平台提供实质出罪通道,从而营造良好的生成式人工智能发展环境。
二、生成式人工智能在准备阶段收集个人信息的合规流程
(一)基于最小必要原则确定合规收集范围
在生成式人工智能收集个人信息的过程中,最小必要原则是明确合规收集范围的“黄金准则”,这可以将《管理办法》等具体法规的要求嵌入生成式人工智能的技术运行过程中,基于技管结合理念来督促技术合规发展,并为限缩个人信息的收集范围提供规范依据,尽可能在事前规避侵犯公民个人信息的风险,达成事前合规的效果。
一直以来,最小必要原则被认为是个人信息保护的“帝王原则”并被广泛适用,其中“最小”是对必要原则内涵的限定。但在数字时代,有观点提出为了有效利用个人信息并提升结论准确性,最小必要原则的合理性在被逐渐削弱,甚至认为最小必要原则已经不再是大数据时代的商业准则。实际上,最小必要原则的本质是比例原则在个人信息领域的应用,主要是为了平衡个人信息保护与新兴技术发展之间的矛盾,在新兴技术挖掘个人信息潜在价值时避免公民合法权益受到侵害。在个人信息合规收集过程中,必要性原则主要落实在目的必要性与手段必要性这两个方面,目的必要性要求个人信息的收集范围必须在其加工目的的范围之内,手段必要性则是指在收集模式上应当必要、适当,尽可能减少对个人的负面影响。有鉴于此,最小必要原则作为个人信息合规收集的纲领性原则,不仅需要融入规范条文中,还应该嵌入具体合规制度中来监管技术,最终基于最小必要原则来确定个人信息的合规收集范围。
总之,基于最小必要原则明确个人信息的合规收集范围,应该基于“生成创造性结论”的要求来结合技术逻辑展开类型化分析,尽可能缩小个人信息的收集范围以规避潜在风险。首先,针对生成式人工智能自我学习阶段收集的匿名化个人信息进行验证,避免其被挖掘或组合加工出其他内容。其次,针对共性算法所需的个人信息范围,应该在备案审查与比较后筛选出最为合适的收集范围并作为通用模板,避免生成式人工智能之间恶性竞争。最后,针对个别生成式人工智能所独有的算法,应该严格审查与备案其所需的个人信息范围,尽可能减少潜在风险,在收集范围上保持整体合规。
(二)信息碎片化处理后合规限制收集深度
生成式人工智能合规收集个人信息时应该在纵向上保持合理的收集深度,避免对某一类个人信息进行过度挖掘。比如,在收集个人身份证号码时,如果仅需收集前14位号码就可以得出其籍贯、生日等信息并生成结论,就不必收集18位号码,在号码的收集深度上保持合规。鉴于生成式人工智能具有强算力作为支撑,即使限定个人信息的收集范围,其也能通过深度挖掘个人信息来分析出其中的潜在价值,因此合理限制个人信息的收集深度可以有效避免深度加工或二次加工,从根源上降低个人信息的安全风险。
总之,在生成式人工智能的收集过程中,为了防止其留存并加工冗余个人信息,避免其成为Web3.0时代的网络集权工具,有必要碎片化处理个人信息来保持收集深度合规。在合规收集流程中,应该有序地碎片化处理个人信息,根据信息深度差异进行模块化区分,根据生成结论所需来收集合理深度的个人信息,同时将冗余个人信息以合规程序及时销毁,防止冗余个人信息泄露或在留存后被二次加工。
三、生成式人工智能在运算阶段处理个人信息的算法合规
在运算阶段,生成式人工智能不合规处理个人信息可能产生潜在风险,而产生原因则是算法缺陷。为了消除生成式人工智能的运算隐患,应该在算法框架中贯彻合规理念并塑造合规程序,将算法的合规要求事先融入技术开发过程中,使之成为系统的核心组成部分,从而围绕算法的运算路径来预设合规框架。
(一)知识蒸馏:算法在学习阶段的评估备案
生成式人工智能的技术优势是自我学习能力,而对自我学习过程进行全流程合规管理则可以避免算法处理个人信息的缺陷在后续实践中被放大。《管理办法》第7条规定生成式人工智能服务提供者应当依法开展预训练、优化训练等训练活动,遵循“涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形”的要求,第17条则规定提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》(以下简称《算法管理规定》)履行算法备案和变更、注销备案手续,设置推动算法合规的“新技术新应用”安全评估(以下简称“双新评估”)与算法备案制度,与AIRMF相似设置映射模块、测量模块,将规范要求映射为合规监管依据,通过双新评估来测量算法的安全风险。鉴于在规范层面已经对生成式人工智能的自我学习模式进行了相应规定,那么应该细化上述规定并转化为合规制度,因为“事前的技术解决方案比事后努力去发现和纠正违反合同条款和条件行为更为有效”,所以需要督促生成式人工智能在自我学习过程中就通过合规管理来事先设置预防措施。
第一,在算法学习阶段进行合规管理首先要分析技术适用的整体场景,并根据算法场景的实际需求来调整后续的技术合规模式。生成式人工智能在自我学习阶段主要依靠小规模的“数据投喂”来训练算法的问题反馈与结论生成能力。以ChatGPT为例,其自我学习包含三个步骤:一是语料收集训练,即收集个人信息用于算法的自我训练;二是预训练,即处理基础性语料来训练算法,赋予其理解自然语言的能力;三是监督微调,通过内置的Codex模式来发现算法的不足并将其优化。由此可见,生成式人工智能的自我学习主要是用算法来试验性处理部分个人信息并及时调整结论生成逻辑,其根本目的是调试算法。在这种小规模的算法运算场景中,算法通过自主学习所得出的结论实际上具有一定的不确定性、不可控性与不可解释性,而这些微小的疏漏将会在正式运算中演化成难以估计的损害后果。鉴于此,只有在算法自我学习时就进行合规监管,督促算法记录自我学习中的谬误并在合规框架内调整,才能促使算法遵循正确方向展开自我学习,以合规方式促进算法向善,从而将良法善治理念通过规范制度映射到技术路径,在数字时代保障技术的实质正义性。
第二,在自主学习的场景中结合《管理办法》第7条的规定来调整算法技术的优化路径,合规管理技术应该结合场景特点与规范要求,知识蒸馏模式(KnowledgeDistillation)满足这一合规管理需求。知识蒸馏是将教师模型(TeacherNet)参数压缩到学生模型(StudentNet)中,并在此过程中相互对照与矫正,最终实现部分知识的迁移和算法模型的压缩,优化处理自然语言的算法模型。知识蒸馏模式是符合生成式人工智能算法自我学习需求的技术模型,因此要基于知识蒸馏模式来构建符合技术现状的合规管理制度。具言之,知识蒸馏模式是生成式人工智能自我学习的核心模式,通过合规训练并矫正教师模型的算法来减少其对信息主体的损害,而只有矫正后的合规算法才能压缩到学生模型中来正式处理个人信息。实际上,将知识蒸馏模式引入合规管理制度中,是将先进的技术管理模式以合规的形式予以确认,将合规管理需求与技术嵌入具有可行性价值的合规程序设计中,基于技管结合理念来将技术发展与规范要求在合规框架中合二为一,避免合规管理的目的落空。
总之,在生成式人工智能的自我学习阶段,对于个人信息的处理应该结合实际场景来落实《管理办法》的要求,构建合规管理体系。在自我学习过程中,知识蒸馏模式是满足个人信息保护需求的合规程序,其将技术与规范相结合,通过预先训练教师模型来降低学生模型算法对个人信息的潜在威胁,并在算法投入使用前进行双新评估与算法备案,以技术与规范相结合的方式实现常态化合规监管,而合规制度可以让刑法成为事先预防,而非仅为事后惩罚的工具,从而有效预防风险。
(二)分类处置:算法在处理阶段的合规纠偏
总之,在生成式人工智能的处理过程中,合理分类个人信息是算法合规处理的前提,应该对不同类型的个人信息采用差异化的技术合规要求,通过合规处理来强化个人信息的保密外观,从而消除信息鸿沟、保持功能统一,在技术合规语境下保证算法的处理效果。
(三)合规标注:算法在反馈阶段的自我修正
生成式人工智能应该在处理个人信息后的反馈阶段进行合规标注,标注个人信息的潜在风险,以警示个人信息主体及算法自身,并推动算法的自我改良,增强其人工智能识别能力,从而优化对其他个人信息的合规处理。2024年1月,新加坡政府发布《生成式人工智能的AI治理框架模型》,在生成式人工智能的设计阶段规定个人信息如何合规地“可信使用”,并可在事先提出个人信息适用的例外情况,进行合规有效的数据标注,配合“隐私增强技术”以取得更好效果。合规标注不仅要在事前标注个人信息帮助算法理解,还要在事后根据处理结果进行回溯标注来提示,降低后续的处理风险。当生成式人工智能发现个人信息的潜在价值及对应的算法在处理上的不足,那么基于整体性视角,系统应该标注这类个人信息,通过监督学习的方式微调算法,并对模型输出的样本进行排序和标量打分以矫正算法处理模式,标注存在风险的个人信息并反馈给系统,增强系统的研判功能,这是算法在反馈阶段的合规的自我修正方式。
四、对生成式人工智能处理个人信息生成结论的合规监管
(二)推动平台优化合规制度完成实质出罪
为了保障生成式人工智能的可持续发展,在强化合规监管的同时也要借助合规制度为其提供实质出罪通道,这是对平台的正向激励,如果平台已经制订合规计划、切实履行合规义务,那么合规计划可以作为阻却犯罪事由,不对平台定罪。事实上,虽然早期的生成式人工智能因为技术不成熟、监管缺失而极易造成损害,但不能因此彻底否定其技术潜力,而是应该借助合规制度来进行实时监管,将合规制度作为平台在事后实质出罪的有力依据,并从平台对合规制度的遵守程度来判断其组织状态及能否实质出罪。
第二,通过算法得出错误结论的运算逻辑来判断平台能否实质出罪,主要是分析算法产生错误结论是否应该归咎于平台。如果是因为平台未尽到合理的注意义务而错误设置算法导致运行失误,那么平台应承担刑事责任。与之相对,如果平台在设计伊始就合理设置算法逻辑,预测安全风险并将个人信息的保护需求嵌入算法,合理约束新兴技术并展开全流程合规监管,那么算法生成错误结论就超出平台的期待可能性。鉴于此,只要平台在运行前设置了合理的算法逻辑,并对算法处理流程进行合规监管,则平台已经履行了相应的注意义务,不具备处罚合理性,自然可以阻却责任并实质出罪。
第三,通过实质评估错误结论的法益损害后果来判断平台能否实质出罪,主要是评估错误结论是否给个人信息主体造成实质损害。因为当前生成式人工智能技术尚不成熟,所以生成错误结论所造成的法益损害也应该谨慎判断,而现代安全刑法中对秩序的过度保护并不符合法治国自由刑法的传统原则,保护法益应该回归以个人为中心,比如GDPR第35条就主要从信息主体的权利和自由等方面评估法益损失。有鉴于此,如果生成式人工智能得出的错误结论没有侵害个人信息主体的权利与自由,而仅仅是违反秩序或者扰乱社会道德,那么并未损害实质法益,由算法引发的负面社会成本相对较少,平台的刑事制裁必要性也随之降低并可以据此实质出罪。
总之,在生成式人工智能的生成阶段,合规制度不仅是监管程序,还能激励平台对风险开展事先的自我治理。在平台建立合规制度之后,只要其在合规有效性标准、算法运算逻辑及实质法益损害上没有产生负面评价,就意味着其不处于合规否定性评价的组织状态,因此消除了对其进行中心归责的要素,其便可以据此阻断归责、消除责任,从而实质出罪。