【作者】郑飞(法学博士,北京交通大学法学院副院长、副教授);夏晨斌(耀时跨境数据合规研究院研究员,硕士研究生)
目次一、新一代大规模语言模型的技术原理与特征二、新一代大规模语言模型面临的著作权困境三、大规模语言模型“两端”的著作权制度回应
一
新一代大规模语言模型的技术原理与特征
(一)新一代大规模语言模型的技术原理
曾有学者预言“AI苏醒,并不存在不可逾越的天花板”。从新一代大规模语言模型(LargeLanguageModel,LLM,以下简称大模型)雨后春笋般的产业态势来看,人类确实大踏步走在“逾越天花板”的路上。OpenAI开发的ChatGPT实现了单模态下自然语言处理的多任务高效集成。GPT-4和百度文心一言则突破了单模态限制,实现了大模型对文本、图像、语音、视频等理解生成的多功能集成。新一代大模型在自然语言理解和反馈上展现出革命性进步和极高的处理水准。“ChatGPT+”模式更被认为将在全社会各领域掀起一场智能化浪潮。
热问题还需冷思考。拨开技术迷雾,祛魅智能面纱,才能见新一代大模型真身,探生成式AI法理。ChatGPT和文心一言的出现对于自然语言处理技术(NaturalLanguageProcessing,NLP)发展具有里程碑意义。所谓自然语言处理,即机器理解和运用人类语言的过程。17世纪哲学家莱布尼茨在跨语言交流的“摧毁巴别塔”构想中提出了“普遍代数学”和“普遍字符”概念。随后阐述了基于数学、语言学、字符学、密码学的自然语言处理哲学方法。囿于时代限制,这一思想直到1950年基于人机对话的“图灵测试”理论提出后才走下哲学神坛,成为指导现实的技术理论。
随着计算机硬件和机器学习算法的迭代发展,基于人工智能技术的自然语言处理逐渐成为主流。但是卷积神经、循环神经的“千层饼”构造使得传统神经网络语言模型构造复杂且效率低下,而且语言模型与任务模型之间存在一一对应关系,无法做到一个模型处理多种任务。2017年谷歌的基于自注意力机制的Transformer模型极大改善了模型任务用途单一问题,并极大提升了输出语句的情感表达准确性。2018年,OpenAI公司在Transformer的基础上开发了生成式预训练Transformer(GenerativePre-TrainedTransformer,GPT)。随后OpenAI又在GPT的基础上迭代了GPT-2、GPT-3、GPT-3.5、ChatGPT和GPT-4。百度也在此技术思路下开发了文心(ERNIE3.0Titan)大模型。
(二)新一代大规模语言模型的“两端”特征
1.输入端:训练数据“海量”化
2.输出端:生成内容“拟人”化
相较于传统的大规模语言模型,ChatGPT和文心一言在语言生成上展现出高度智能化色彩,具有强“拟人”化特征。具体来说,一是展现出了一定的自我认知能力。例如,ChatGPT在遇到专业问题提问时会主动承认自身知识水平的有限性。在《时代周刊》与ChatGPT的访谈中,ChatGPT对记者关于语言模型的局限性的提问回答道:“是的,像我这样的大型语言模型有很多局限性”。二是展现出了一定的自我反思能力。例如,ChatGPT会主动承认错误,并对用户指出的错误和意见进行判断、采纳、吸收和优化。三是展现出了一定的质疑能力。例如,ChatGPT会对错误提问进行质疑。在访谈中,ChatGPT对记者关于意识的提问提出了质疑:“不,说我有知觉或意识是不准确的。”四是展现出了一定的思维推理能力。例如,ChatGPT允许任意任务模式的自然语言输入,并能结合上下文对语言任务进行回答,开展多轮语言对话。在访谈最后,ChatGPT对记者关于前述问答的真实性提问时回答道:“你不应该把我所说的都当成真实和准确的。在做任何重要决定或采取任何行动之前,运用自己的判断和常识核实多方信息,才是重要的。”
二
新一代大规模语言模型面临的著作权困境
(一)输入端困境:训练数据的合理使用难题
1.合理使用难以涵盖为训练挖掘使用作品数据的行为
首先,大模型不具备“类人智慧”,前文已经详细阐释了大模型的生成原理。其“拟人”化的生成内容完全是价值模型的控制结果。不重复的对话内容完全是随机输出的机制作用。大模型的“智慧”表象仅仅是一个被精巧设计过的工具,与“类人智慧”有着云泥之别。其次,新一代大模型的学习生成过程仍然依赖人类监督。其语言风格及文本输出结果的准确性完全依赖于人类的训练素材选择和数据标注。从素材选择到数据标注,每一步都是人为主动介入的结果,而非自主意识做出的。换言之,模型从第一步学习素材选择开始就不具有完全的强自主性。最后,新一代大模型在创作过程中的根本推理逻辑是数学推理,其创作过程是对高价值语句的判断与输出。尽管数学可能是艺术,但艺术绝对不是数学。人类对文学艺术创作的逻辑推导不是理性的数学判断,而是感性的美学判断。因此,新一代大模型在艺术创作领域完全不具备“类人推理”。
2.新一代大规模语言模型生成内容不具有一定的思想和情感表达
3.新一代大规模语言模型生成内容不具有独创性
我国《著作权法》中的独创性包含“独”和“创”两个维度。其中,“独”是“独创性”有无的性质门槛,而“创”则是“独创性”高低的程度门槛。我国著作权法既需要对“独创性”的性质门槛认定,也需要对程度门槛的判断。
回到新一代大模型来看。就“独”而言,其要求“独立完成”和“个性化表达”。当前新一代大模型生成难以满足上述两点。一旦离开数据标注员的参数标注和训练员的文本数据输入,大模型不可能生成任何其他类型的新作品。因此,新一代大模型自身不满足“独立完成”要件。此外,ChatGPT和文心一言的“个性化表达”也非AI本身的个性化体现,而是创作者对大模型训练的特定体现。就“创”而言,其生成成果可以很好地满足客观主义下的“最低限度创造”的形式要求。因此,新一代大模型在客观主义下不存在显著的创造性障碍。但是,当前我国对独创性之“创”还存在隐含的价值判断,这一点在学界和司法实践中十分显见。例如,有学者认为“作品”应有文艺和科学美感。又如,司法者在涉艺术品司法判决中对独创性施加了艺术审美要求。这一隐含的价值判断与著作权法对独创性的要求有关。价值判断的本质是对作品内涵一定思想深度的要求,新一代大模型的生成本质是参数标注与概率计算,由于其不具备人类思想因此不可能满足一定思想深度的潜在要求,进而难以符合价值判断要件。综上所述,新一代大模型生成内容不具有独创性。
三
大规模语言模型“两端”的著作权制度回应
(一)输入端知识产权制度回应
1.构建更加开放的合理使用制度
综上所述,可以在兼顾社会整体利益、科技创新能力、产业竞争能力和著作权主体合法权益的基础上,构建更加开放的合理使用制度。一是可以对合理使用本体条款即《著作权法》第二十四条第一款和第六款进行升级扩容,分别突破第一款下“个人”和第六款下“大专院校、科研院所”的主体限制;二是可以对合理使用的非营利性目的进行进一步解释。对其解释可分为两种路径。其一是在不突破非营利性目的的限制下,将非营利性目的限于直接目的之下,将虽用于企业经营,但主要为研发创新所需的数据与文本挖掘间接性行为排除在外。其二是直接突破非营利性的目的限制。三是可以用好合理使用兜底条款即《著作权法》第二十四条第十三款,通过制定生成式人工智能行政法规的形式为大模型研发所需的数据文本挖掘合理使用提供制度空间。
2.构建义务规则下的默示许可制度
(二)输出端知识产权制度回应
-向上滑动,查看完整目录-
《科技与法律(中英文)》2023年第5期目录
【理论探讨】
1.智能一体化:再犯危险性评估的模式选取与体系建构
喻少如、窦峥(1)
2.刑事证据判断中人工智能应用的法理审思与优化路径
余贵忠、杨再忠(11)
3.平台经济治理纠纷的能动司法对策研究
李岩、王志文(20)
4.异化与归正:社交机器人的信息表达与规制径路
龙柯宇(31)
【数据知产】
5.数字权利视域下职场电子监控的三元治理模式
饶志静、朱天阳(40)
6.数据产权框架构建中排他性设计的研究
汪赛飞(50)
7.我国跨境数据流动规则的理论逻辑与体系重塑
——基于围猎博弈模型的分析
陈丽娜(61)
8.公共领域视野下作品登记制度改革之构想
黄汇、刘伊菲(73)
9.生成式人工智能的著作权困境与制度应对
——以ChatGPT和文心一言为例
郑飞、夏晨斌(86)
10.知识产权国际争端解决机制的纵向论坛转移研究
梁金马、石巍(97)
【青年论坛】
郑金涛(106)
12.著作权法中表达公有领域的司法认定
袁帅(117)
13.个人生物识别信息商业化应用规制:路径对比与规则补正
于若兰(128)
【英文版】
余祥、聂建强(138)
《科技与法律(中英文)》立足科技创新与法律实务的交融发展,成为横跨科技、法律、知识产权领域从事学术交流、实务沟通、绩效展示和形象推介的重要媒体和信息平台,致力于实现“促进科技与法律互动、服务学术与产业创新”的办刊宗旨。