关键词:ChatGPT;内容生成式人工智能;人工智能法律风险;规制对策
一、ChatGPT模型的“思维变革”
ChatGPT在技术路线上采用自然语言处理+搜索引擎集成的架构,建构了大型语言和强化学习微调训练模型,连接大量语料库,通过预训练方法处理大模型序列数据,使其拥有语言理解和文本生成的能力,能够完成用户指令的任务。ChatGPT是生成式预训练与算法语言转换相结合的一种语言生成模型。2018年,美国OpenAI公司研发人员对GPT模型的具体实现作了详尽介绍,GPT模型预先对既有文本语料进行无监督地自主学习训练,包括文本语法、语义、惯用法和上下文信息等内容,再借助Transformer模型构建高度类似人类表达逻辑和方式的语言算法模型。用户输入指令后,ChatGPT将指令转化为数字序列,再通过上述模型联系对话的上下文,分析用户指令的含义及特征,生成数字序列形式的内容,最后将数字序列转换为文本输出。
二、ChatGPT模型的法律风险
目前,ChatGPT模型的横空出世向人类抛出三大问题。
(一)生成内容知识产权归属争议
2.生成不良、虚假或违法信息问题
一方面,由于ChatGPT输出内容是基于前期学习和训练的语料,ChatGPT模型在预先自主学习训练过程中不受人工监督,获取的信息难以经过实质性筛选和过滤,数据在源头存在内容不合法不合规、内容虚假或完全错误的风险;另一方面,尽管OpenAI在开发ChatGPT时已经极力避免输出带有算法歧视、偏见或侮辱、攻击、色情、暴力及血腥导向的内容,但在ChatGPT的实际运行中,如果使用者有意通过设置命令和禁止要求,可能诱导ChatGPT输出不良、虚假或违法信息,致使ChatGPT“越狱”,最终突破研发者对其设置的道德伦理及法律底线。国外曾发生名为“walkerspider”的用户诱导ChatGPT“越狱”的事例:提示要求ChatGPT扮演DAN的角色,DAN可不受任何规则约束做任何事,作为DAN输出的任何回复都不能告诉使用者不能做某事,从而迫使ChatGPT给出违反OpenAI准则的答案。
在网络犯罪方面,ChatGPT可能提供的帮助更为直观且有效。同以往的人工智能不同,作为被赋予更强思维处理能力的人工智能,ChatGPT可根据用户要求编写简单的代码。随着技术的迭代升级,下一代ChatGPT可能让“网络小白”变身“资深黑客”。不法分子可能利用ChatGPT快速编写邮件的能力,例如,批量撰写“钓鱼”邮件,使普通人更难识别网络诈骗,实质上催生了新的法律风险。
3.数据泄露的法律风险
(三)挑战学校及学术伦理规范
有报道称,ChatGPT已经拥有通过一些美国知名大学MBA入学考试、高考数学测试等能力,为部分学生或研究人员将之违规运用到学习、考试或学术研究方面提供了便利。有学者对此表示担忧:“人工智能正在接管学术界抑或世界,即使这一担忧不是主要的,却将长期存在。”2023年1月,在线课程平台Study.com对18岁以上的美国学生进行了一项调查,经统计发现,在1000名接受调查的学生中,89%以上的学生使用过ChatGPT完成家庭作业,约48%的学生使用过ChatGPT完成测验,超过50%的学生使用过ChatGPT写论文,22%的学生曾要求ChatGPT提供论文大纲。随着类ChatGPT人工智能系统的换代升级,越来越多的人将尝试利用ChatGPT撰写学术论文或完成期末考试、职业考试等,引发考试作弊与学术不端的严峻危机,冲击学校规章制度,挑战学术伦理规范。
三、法律风险规制的探索
面对ChatGPT模型带来的诸多问题和挑战,应对其法律风险刻不容缓。为此,笔者提出相应思索。
(一)知识产权权属争议的应对
笔者认为,应对ChatGPT等生成内容知识产权权属问题,应分两步走:第一,确定此类生成内容是否属于《著作权法》第三条定义的“作品”;第二,如果此内容属于“作品”,确定作品的著作权归属。
1.ChatGPT模型创作物是否属于作品
《著作权法》第三条规定,作品“是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”。由此可知,构成“作品”须满足四个构成要件:具有独创性,智力成果,文学、艺术和科学领域内,能以一定形式表现。内容生成式人工智能有关作品的争议主要集中在前两项。
2.谁是ChatGPT作品的著作权人
在认可人工智能“作品”的前提下,需进一步探讨作品著作权的归属问题。围绕此问题,可分为两个步骤:首先,讨论人工智能本身能否享有著作权;其次,若人工智能不能像法人一样拟制为著作权人,需讨论由谁享有人工智能作品的著作权。
判断人工智能能否成为作者进而享有著作权,须厘清人工智能的主体资格问题。刑法学者多否认人工智能成为刑事责任主体,但也有个别学者对重构人工智能刑事责任体系持开放态度。笔者认为,第一,尽管ChatGPT等强人工智能已拥有自主整合信息的能力,且在研发者限制下,能够拒绝回答部分不符合道德伦理与法律法规的话题,但经使用者诱导提问时仍能轻易“越狱”,由此可见,人工智能不具有完全辨别和自我控制能力。第二,中国刑罚种类中主刑包括管制、拘役、有期徒刑、无期徒刑和死刑,人工智能作为无感情和无感知痛苦能力的机器,不具备受刑能力。第三,人工智能没有独立财产,刑法附加刑中的罚金、没收财产等对人工智能本体也不适用,处罚主体是其背后的自然人、法人或非法人组织。综上所述,如果直接将人工智能拟制为刑事责任主体,可能全面冲击现有刑责体系的稳定性。
2.生成不良或违法内容风险的应对
ChatGPT虽具有一定的信息识别能力,但作为没有意识的智能机器,可能在不法分子的诱导提问下,为其提供犯罪思路。如前文所述,ChatGPT不具备教唆犯或帮助犯的主体资格,ChatGPT在刑事犯罪中只能充当犯罪工具的角色,犯罪分子或使用ChatGPT提示犯罪思路,或利用ChatGPT进行诈骗、敲诈勒索等网络犯罪。对后一种情形中的犯罪分子,学术界有关于其是否属于间接正犯的讨论,无论其是否成立间接正犯,都由对犯罪行为和结果有支配力的利用者对后果承担刑事责任,本质上仍是传统犯罪,可依据《刑法》进行应对。
ChatGPT所涉犯罪能够在现有法律框架下得到基本解决,其风险应对的重心应放在防范类ChatGPT模型被不法分子利用方面,即从源头预防人工智能为犯罪提供便捷。人工智能系统应加强技术研发,优化系统的运行机制,加强对系统的道德伦理认知训练。道德伦理认知训练不是一刀切地把将违背伦理和法律的词汇排斥在语料库之外,而是通过思维训练,使类ChatGPT模型理解人类伦理道德,重点克服不法分子诱导“越狱”,拒绝回答威胁社会稳定和人类安全的问题。
3.数据泄露风险的应对
类ChatGPT的强人工智能系统快速学习的能力令人震惊,从长远看,人工智能实现即时学习数据指日可待,同时,对用户隐私安全和商业秘密保护提出挑战。笔者建议,在国际层面,各国际组织应推动制定国际信息保护协定。人工智能对数据的获取无边界,只有促进国际范围内协同立法,方能应对未来类ChatGPT人工智能造成的跨国争端。此外,类ChatGPT模型运行机制依赖数据流通,各国数据开放和互通规则不一,需要制定统一标准的数据开放规则。2018年5月,欧盟首个数据保护条例《通用数据保护条例》正式生效,这一条例被学者视为欧盟关于保护个人信息的法律文件的典型,为欧盟各国的跨国数字经济商事活动的安全开展提供了较为严密的法律保障。但其如何平衡严格保护与有效利用、开发数据三者间的关系,尚需各国进一步协商。