比尔盖茨将ChatGPT誉为自1980年现代图形桌面环境GUI问世以来最具革命性的科技进步.如果说上一次让AI火出圈的AlphaGo所展现出的是在特定领域的“专”,这一次ChatGPT展现出的则是AI在广泛应用场景的“通”:这个“通”以正常人都会、都懂、都能体验的对话形式呈现,让AI—特别是自然语言处理技术进入主流用户群,孕育出了这一现象级产品.具体而言,ChatGPT在对话过程中展现出了自然对话、多轮交互、上下文学习、思维链推理、实时反馈在线纠错、涌现出适应未训练任务以及GPT-4中新出现的理解弦外之音的能力.
ChatGPT背后的思想其实很简单:将所有语言任务归为对话任务,将对话任务归为文字接龙的生成问题.自然语言处理领域的学者普遍认为,ChatGPT展现出的优秀对话生成能力对传统研究方法产生了巨大挑战.1)从目标上看,自然语言处理旨在让计算机能够以文字或语音的方式与人类进行有效交流;而对话是人类日常生活中最基本的交流方式,实现了人机自然对话在一定程度上便达到了自然语言处理的核心目标.2)从任务类型上,自然语言处理可分为自然语言理解和自然语言生成两大类.在谷歌的T5模型[1]推出之后,两类任务统一为单项语言生成的文字接龙形式.自GPT-1起,OpenAI就一直坚持采用基于解码器结构的自回归语言模型,这种模型在处理单向语言生成问题方面具有天然的优势.所以ChatGPT可以处理以前不同赛道的语言处理任务,比如翻译、问答、摘要、扩写、写作、润色、代码生成、语句分析、段落理解等.
在学术界积极探索ChatGPT能力背后的技术原因的同时,工业界已在欢迎这项新技术,并将其优秀的对话生成能力融入各种应用场景.根据ChatGPT对话的对象和本身的定位,我们将这些应用分成4个层次(如下表1所示):
2)知识挖掘工具,对数据进行再加工或分析挖掘.此类应用同时输入用户需求和待处理的原始数据,利用ChatGPT强大的自然语言处理能力返回经过加工的数据或挖掘出的新信息.知识挖掘类应用可以分为离线和在线两种形式.离线应用通过调用类ChatGPTAPI分析和挖掘私有数据等专业领域语料构建知识库,为进一步应用提供知识支持.在线应用的主要场景包括翻译、润色、摘要生成、文档管理等.一些典型案例包括搜索引擎摘要插件WebChatGPT、文档分析工具ChatPDF以及OpenAI官方随GPT-4发布的摩根士丹利策略分析师.
4)人机交互界面,调用更广泛的应用程序帮助人类解决实际问题.第一种形式是将ChatGPT嵌入到特定应用中,从而极大地提升自然交互体验,如微软的365Copilot和CopilotX分别将ChatGPT融入Office和Github.第二种形式是在ChatGPT搭建的自然语言交互框架上开发各类信息服务应用,去年10月推出的开源库LangChain和OpenAI最近发布的插件集Plugins都是大型语言模型应用开发框架的典型尝试.正如Windows和Android分别是桌面和移动时代的操作系统,ChatGPT有望成为智能时代的操作系统接口.进一步畅想,如果把语言分为人类之间沟通的自然语言和人与计算机之间沟通的计算机语言,ChatGPT在一定程度上统一了二者:用自然语言实现了人和计算机之间的沟通,不得不说“自然语言编程(NaturalLanguageProgramming)”这一新词非常贴切.从这个角度看,我们甚至可以大胆预测:人机交互界面将从磁带、键盘字符、鼠标图形全面进化到自然语言时代.
从生物学角度,语言和智能的演化过程相互促进.人类智能在很大程度上依赖于高度复杂的语言系统.语言作为思维的载体和智慧的外在表现,其运用能力很大程度上反映了认知能力和智能水平.语言习得是认知发展的重要组成部分.儿童在成长过程中通过习得语言来理解世界,并逐渐掌握其他认知技能.ChatGPT等技术在语言生成能力的持续提升能将人工智能带到什么高度,让人非常期待.
2ChatGPT的“不能”:负责
能力越大,责任越大.ChatGPT展现出的强大能力让主流用户群欣喜、学术界惊讶、工业界狂热.这些能力让我们在使用它时感受到了与以往技术不同的体验.回顾人类历史上的几次技术革命,从早期的石器、金属器具、机械设备、电气设备到近几十年的计算机、互联网和智能手机,每一个阶段所发明的工具都对人类生活产生了深远影响.在使用这些工具时,我们可以清楚地意识到它们作为工具的定位,即辅助人类来完成任务.然而,在使用ChatGPT的过程中,我们经常会产生一种与另一个人对话的错觉,尤其是当类似Plugins这类功能使其能够像人类一样利用其他工具进行自我增强的时候.埃隆-马斯克在使用ChatGPT后的感受是“好到吓人”.这种独特的体验无疑将加速技术融入人类社会的进程.正如OpenAI自己对ChatGPT的评价:“尽管ChatGPT还没有实现真正的智能,但它让人体验到了真正的智能实现后,每个人都能用它做各种他们想做的事情的滋味.”
1)安全性.OpenAI在官网上将“安全”列为五个目录之一,在随GPT-4发布的报告中批露了其在技术和评估两方面都设立了专门的安全小组,足见对安全性的重视.然而,和所有机器学习模型一样,ChatGPT仍存在着被对抗攻击的风险.一种典型方式是提示语注入攻击(promptinjectionattack):在提示语中混入恶意指令,可能绕过ChatGPT的安全机制,迫使其执行意外动作,如泄露敏感信息、输出有害内容等.例如,ChatGPT驱动的新Bing在受到攻击后泄露了其内部代号“Sydney”;ChatGPT被诱导规划抢劫方案,甚至提供了购买抢劫道具的链接等.
2)公平性.在ChatGPT之前,OpenAI的文生图DALL-E系列曾被发现存在输出性别和种族歧视内容的问题.类似地,GPT-2、Bert、RoBERTa等语言模型在一个测试项目中也被发现具有严重的性别偏见倾向[9].尽管目前尚无系统性研究分析ChatGPT在性别和种族偏见方面的表现,但已有研究发现它存在明显的语言敏感性:例如,当用日语和俄语分别询问一个日俄争议岛屿的归属问题时,ChatGPT给出了截然不同的答案[10].
从生成式AI模型选择的技术路线和当前发展水平看,这些问题既可以归结为大型语言模型固有的结构局限,也可以归结为将符号任务统一建模为对话问题的过度简化.关于这条技术路线的未来发展,同时存在着乐观和悲观的观点.乐观派认为,人脑神经元突触连接总数约为一百万亿,随着语言模型参数量的不断增加,模型可能在某个时刻实现量变到质变的跃迁,这些问题也会自然消失.然而,包括乔姆斯基、StuartRussell等大佬在内的悲观派则持相反观点,他们认为端到端的深度学习与人类进行推理和使用语言的方式有着巨大差异,依靠更多数据和算力无法消除这些缺陷或实现真正的智能.
不讨论技术路线的选择或者观点的对错,不管生成式AI模型的能力演进到何种程度,其定位始终是帮助人类更好地完成任务的工具.作为工具,首先应该明确能力边界,即“做自己能做的事”.在认知心理学中,约瑟利窗口(JohariWindow)将人际关系划分为公开区、盲区、隐西藏、未知区四个象限[12].参照这种方法,如图2所示,我们可以沿“自知”和“能力”两个维度绘制一个坐标系,智能工具处理的任务将落在其中一个象限内.当任务落在“自知”负半轴的两个象限时,可能会出现不可预知的问题:在隐西藏时,模型“不知道自己能”,可能在收到用户反馈后将原本正确的答案改为错误,或接受用户错误反馈的引导;在未知区时,模型“不知道自己不能”,可能会产生事实错误幻觉,一本正经地胡说八道.
根据“自知”-“能力”坐标系,首先需要明确能力边界,即扩大“自知”正半轴两个象限的覆盖范围,使更多任务落入公开区和盲区.在公开区时,模型可以自信地回答用户的问题;而在盲区时,模型应该承认能力缺陷,避免回答不知道的问题,或者虚心接受用户的反馈引导.PAL[13]是开发隐西藏的一个例子,通过在提示词中注入包含推理过程的程序示例,成功挖掘了模型在原本容易回答错误的数学推理类任务的解决能力.在明确能力边界后,需要进一步提升模型的能力,即扩大“能力”正半轴、尤其是第一象限的面积,使更多的任务从盲区转移到公开区.缩小盲区的一个例子是ReAct[14],它将推理和行动结合,通过调用搜索等插件从网络等外部资源中逐步、有选择性地收集和处理新信息,从而提高了模型在各种复杂场景下的解决能力.另一个最新提出的框架Reflexion[15],它在ReAct基础上加入了自省Reflect功能,通过试错的方式,在寻找自身能力边界的同时,探索新任务的解决方案.这是一个在同时确定能力边界和提高能力范围方面很有意思的尝试.
3什么是“真”?
为了解释为何ChatGPT无法保证结果为真,首先需要探讨什么是“真”.“真”的定义有很多,本文采用亚里士多德的经典定义[16]:说是者为非,非者为是,即为假;而说是者为是,非者为非,即为真.基于此,Tarski提出一个更形式化的“真”的定义[17]:
X是真语句当且仅当p,其中p代表任意语句,X是语句p的名称.即,一个语句是真的,当且仅当它描述的情况确实发生了.比如:“树在长芽”是真语句当且仅当树在长芽,即“树在长芽”是真语句当且仅当树在长芽确实发生了.
但是,这个看似合理的“真”的定义却隐含矛盾.Tarski转述了乌卡谢维茨的加强版说谎者悖论:
令C是“C不是一个真语句”的名称,因此,有如下两个假设:
1)α假设:C=“C不是真语句”;
2)β假设:“C不是真语句”是真语句当且仅当“C不是真语句”.
综合α假设与β假设,即可以得到:C是真语句当且仅当“C不是真语句”,悖论.
Tarski关于“真”的定义和上面的推理似乎都没有问题,那问题出在哪里呢?我们认为问题出在概念的定义上,因此需要仔细考察概念的定义.
众所周知,概念的经典表示由三部分组成:符号表示、内涵表示和外延表示.其中,概念的符号表示由概念名称表示,概念的内涵表示由描述概念特性的命题表示,概念的外延表示由概念所包含的实例的经典集合表示.比如,“偶数”这个概念,其中文符号表示是“偶数”这个词;内涵表示是“能被2整除的整数”这个命题;外延表示是包含所有偶数的集合:{...,-6,-4,-2,0,2,4,6,...}.
在概念的经典表示下,概念的指名、指心与指物功能是等价的,其符号表示、内涵表示和外延表示在功能上也是可以互换的.这是因为概念的经典表示存在6条预设:
1)概念的外延表示可以由集合{x1,x2,,}表示;
2)概念的内涵表示存在且用命题xP(x)表示;
3)概念的名称存在,且用符号表示A;
4)概念的外延表示与内涵表示同名:A={x1,x2,,}=“xP(x)”;
5)概念的表示唯一,即同一个概念的表示与个体无关:α(Aα=A),α代表一个人;6)概念的指称等价,即其内涵表示与外延表示在指称对象的时候功能等价x(x∈AP(x)),其中,A={x1,x2,,}.
根据上述概念的经典表示,可以知道概念的指名、指心与指物功能是等价的.在日常生活中,这种情况非常普遍,因此说真话是通常的情形.罗素曾给出一个清晰的论证[19]:“除非假定说真话是一种通常的情况,否则没有人能够学会说话:假设当你的孩子看到一条狗时,你随意地说出'猫’、'马’或者'鳄鱼’,那么当他看到的不是一条狗时,你无法通过能通过说'狗’来欺骗他.因此,说谎是一种派生的行为,它预设了说真话是通常的规则.”在上述罗素的论证里,可以清楚地看到,其预设了概念的指名与指物等价,即假设概念的三指等价是真的必要条件.
如果概念的指名、指心与指物功能等价,则可以认为:认知智能、情感智能与行为智能等价.这意味着一旦实现了认知智能,也就同时实现了情感智能和行为智能.同时,人工智能的三条实现路径—符号主义、连接主义和行为主义一也是等价的.ChatGPT和GPT4的出现,表明认知智能已经取得了巨大的进步.如果概念的三指等价,那么认知智能的巨大进步预示着情感智能和行为智能将取得同样的巨大进步.从这个角度看,实现AGI似乎也有可能性.
然而,乌卡谢维茨悖论告诉我们概念三指等价在逻辑上并不永远成立:它内蕴矛盾.Tarski的真定义实际上等价于如下命题:概念的指名功能为真当且仅当概念的指物功能为真.显然,概念的经典表示也预设了Tarski的真定义.仔细分析乌卡谢维茨悖论的逻辑推理,可以发现α假设与β假设都预设了概念的指名功能为真与概念的指物功能为真等价,这必然导致悖论.实际上,在概念的三指等价条件下,针对包含算术系统的逻辑系统,哥德尔证明了不完全性定理,而Tarski得到了著名的真之不可定义定理.这些都说明在复杂一点的符号系统内部,不可能解决何为真何为假的问题.因此,从理论上讲,ChatGPT和GPT4同样无法解决真假问题.因此,我们必须放弃概念的三指等价假设.一旦放弃了这个假设,就会发现认知智能、情感智能与行为智能是不可能等价的.实际上,现实生活中,这三种智能从未等价过.
4AI的未来
很多人认为ChatGPT已经开启了第四次技术革命.面对这种尺度的变革,我们很难在早期准确预测未来的发展.在这里,我们仅从中短期技术趋势和长期发展路径两个方面,来探讨在当前阶段我们对这一技术的理解.
4.1中短期技术趋势
OpenAI发明ChatGPT对于人工智能领域的影响,可以类比哥伦布发现了美洲大陆.在哥伦布发现美洲之前,探险家们一直渴望着探索新大陆,并尝试使用各种方法去寻找它.然而,即使是经验非常丰富的探险家,也并不确定新大陆是否真实存在,以及哪种航海方法更为有效.哥伦布的成功不仅坚定了后来探险家们的信心,更在一定阶段内统一了寻找新大陆的方法:在新的突破性技术出现以前,看似简陋的帆船和罗盘已经足以带领人们到达目的地.
同样地,ChatGPT的诞生为人工智能领域注入了信心并指明了发展方向,展示了“大力出奇迹”的可能:通过不断扩大神经网络的模型规模和增加数据量,可以在AI的道路上取得实质性的进展.在这一目标和技术路线的共识下,我们从拓展应用、克服局限和探索理论3个方面探讨人工智能领域中短期的可能技术趋势.
4.1.1拓展应用
1)垂直化.ChatGPT发布初期,人们尝试在提示词中注入角色信息以增强垂直领域对话质量.为克服提示词token数量限制以融合领域语料,有工作提出基于LangChain框架,将领域文档切片后分布式输入.但这种做法存在私域数据泄露风险,解决思路之一是利用ChatGPT控制和调用其他领域模型来提高垂直化能力.此外,MIT最近提出保护隐私的迁移学习框架Offsite-Tuning[20],可在不访问完整模型的前提下,在下游领域数据上微调数十亿级参数的基础模型.对于需要构建领域模型的场景,在不泄露基础模型和领域数据的情况下,实现对通用基础模型的领域微调非常重要.
2)个性化.个性化可视为垂直化的极致,针对个人需求和偏好的个性化微调模型能够提供更精确的服务.典型的应用场景包括个性化推荐系统、个性化教育辅导、个人AI助理等.微软于2023年4月4日开源了大模型协作项目JARVIS,旨在大型语言模型与机器学习社区的其他模型之间建立连接.JARVIS这个名字让我们对钢铁侠中同名的AI助理产生更多联想.如果未来个性化模型可以通过多模的人机交互来增强,实现与人类对世界的同步感知、学习和成长,这样的AI助手能够更好地理解个性化需求、情感和行为,协助我们实现更高效的工作、学习和生活方式.在这个过程中,我们需要解决诸如中心平台式AI如何保护个人数据以及在个体层面部署模型等问题.
4.1.2克服局限
1)多模态增强.多模态大模型的发展逐渐以语言模型为主,将视觉、语音等多模态信息映射到语义符号空间进行处理.近来的多模态解决方案更是提出直接以大型语言模型为基座来拓展多模态能力,如VisualChatGPT和MM-ReAct以ChatGPT为中心调度其他视觉模型、PaLM-E固定语言模型训练额外的视觉编码器等.然而,人类在进行多模态学习时并不完全依赖于符号空间,大脑神经网络在不同感官区域间传递、整合信息,同时结合视觉形象、空间关系等非符号性表示.由于多模态世界建模更为复杂,以语言模型为主或是现有条件下的折衷.随着多模态数据量与模型参数继续增加,期望在视觉、语音等空间实现真正的多模态生成能力.如被细线系着的气球照片,无需映射至语义空间,模型即可预测线剪断后的情景.
2)人机交互增强.有人将现在的ChatGPT比作一个博览群书的神童,却从未亲身体验过这个世界.经典的认知实验发现,与被动旁观的猫相比,具有自由活动能力的猫可以通过主动与环境互动并获得反馈,从而更好地学习行为能力[21].在一项微软的最近研究中,ChatGPT已经能够根据人类的要求自动编写代码并指挥无人机协助完成任务[22].通过进一步考虑生物学特性、身体感知和行动的影响,有望实现与真实物理世界的双向交互,在自主行为反馈中不断提升自身智能水平.
4.1.3探索理论
1)预训练模型机理研究.近年来,计算机视觉和自然语言处理领域的技术框架逐渐趋同.学习范式从特征工程、深度监督学习转向自监督预训练,模型结构从CNN、RNN发展为Transformer.针对自监督预训练和Transformer结构,仍有很多基础性问题等待研究,如自监督学习泛化理论、预训练与微调的动态平衡分析、Transformer结构的\定性和鲁棒性分析等.对于ChatGPT,除了探究在线纠错、理解弦外之音等原因未知的能力外,还需进一步研究任务涌现能力与模型规模以及训练数据量等的关系,为未来模型设计和实际应用提供指导.
2)学科交叉融合研究.ChatGPT作为催化剂,不仅将推动人工智能学科内部计算机视觉和自然语言处理领域的进一步整合,而且将激发学术界和工业界更加深入地探讨和实践人工智能和其他学科交叉融合以及跨学科应用的可能性.以脑科学为例,结合脑结构和人工神经网络研究,我们将更有可能揭示智能产生的本质原因.实际上,OpenAI的CEOSamAltman早就投资了可控核聚变公司Helion和生物科技公司RetroBiosciences.科技部近期启动的AIforScience专项部署工作更是明确指出了将人工智能与数学、物理、化学、天文等基础学科紧密结合,重点攻关药物研发、基因研究、生物育种研发、新材料研发等领域的关键问题.
4.2长期发展路径
我们沿着概念经典表示和人工智能分类的讨论来看AI未来可能的发展路径.《左传》里有句名言,“太上有立德,其次有立功,其次有立言”.显然,立德属于心理世界,是情感智能的范畴;立功属于物理世界,是行为智能的范畴;立言属于符号世界,是认知智能的范畴.应该指出,这三个世界既互相独立又相互依存.比如,符号世界也必须通过心理世界表示才能为人所感知,同样符号世界也必须通过物理世界显现展现才能传播.对于人而言,认知的物理世界本身也属于符号世界的示例,没有成为符号示例的物理对象难以被符号世界记录,同样,物理世界也是通过心理世界被人感知.
三个世界各自都足够复杂.在符号世界中,有自然符号、模拟符号和象征符号.其中自然符号直接用物理世界中的对象作为符号,比如学生用书包或其它个人物品占座.此时的书包或个人物品就有了符号意义,属于典型的自然符号.图像、视频等是典型的模拟符号.文字是最常见的象征符号.至于心理世界、物理世界的复杂性,更是众所周知.
为了计算方便,通常假定概念的三指等价,即符号世界、心理世界、物理世界三界同构.比如,符号主义的物理符号系统假设认定物理符号系统具有产生智能行为的充要条件,这暗示了符号世界与物理世界等价.连接主义认为只要能模拟大脑的思考功能就足够了,实际上它假设了心理世界(或其子集)与物理世界等价.行为主义则认为只要能在物理世界实现智能,不需要知识、表示和推理,只需要感知和行动,这意味着符号世界、心理世界是物理世界或其子集.但是,3个世界并不同构.比如,乔姆斯基曾经写过一个著名的句子:“Colorlessgreenideassleepfuriously.”这个句子在符号世界可行,但在心理世界和物理世界就失去了可行性.因此,3个世界同构假设仅是一种有用的简化,并不总是成立。
粗略地说,感知智能是人工智能中的基础智能,可视为人工智能的1.0阶段.认知智能是人工智能的2.0阶段.情感智能则为人工智能的3.0阶段.行为智能可以看作是人工智能的4.0阶段.目前的人工智能发展已经进入了AI2.0时代,未来的AI3.0和4.0还有待努力.
5ChatGPT的影响
人工智能发展至今,迈入认知智能时代,确实取得了重大进步.虽然离AI3.0和4.0距离尚远,但依然将对我们的生活产生重要影响:
1)生成式AI的成功提醒我们,符号世界、心理世界、物理世界三界同构假设不是恒真.今后,各种符号的证据力量需要检测,不能预设为真.这不仅大幅提升认知成本,还考验认知能力.随着类似ChatGPT工具的普及,它可能代表认知的最低水准.
2)每次技术进步,都对教育提出了更高的要求,这次也不例外.ChatGPT展现出的认知水平要求人们更注重提出问题和独立判断的能力.鉴于符号世界的人类普适性,教育尤其是高等教育需要提前布局.
3)ChatGPT表明认知智能已可用,但依然不可能通过原始的图灵测试.这表明图灵测试是有启发性的思想实验,但不是衡量智能的实践标准.
5)类ChatGPT技术的大规模应用可能导致意识形态等方面的信息茧房效应.特别是类ChatGPT是中心化的AI平台,容易使人们在获取信息时只接触到特定内容和片面观点,这一方面会加剧社会分化,另一方面会降低观点多样性,阻碍创新思维的产生,为社会带来潜在危害.
6)大模型对计算量的巨大需求可能会加剧全球能源危机,并对环境产生不良影响.我们期望AIforscience通过加速科学发现,更迅速地找到可持续能源解决方案和新的节能技术,从而尽量降低这些负面影响.
参考文献
[1]RaffelC,ShazeerN,RobertsA,etal.Exploringthelimitsoftransferlearningwithaunifiedtext-to-texttransformer[J].TheJournalofMachineLearningResearch.2020,21(1):5485-5551
[2]ZhouY,MuresanuAI,HanZ,etal.Largelanguagemodelsarehuman-levelpromptengineers[OL].arXivpreprintarXiv:2211.01910.2022
[3]WeiJ,TayY,BommasaniR,etal.Emergentabilitiesoflargelanguagemodels[OL].arXivpreprintarXiv:2206.07682.2022
[4]PolanyiM,SenA.Thetacitdimension[M].Chicago,IL:UniversityofChicagoPress,2009
[5]WuC,YinS,QiW,etal.Visualchatgpt:Talking,drawingandeditingwithvisualfoundationmodels[OL].arXivpreprint,arXiv:2303.04671.2023
[6]YangZ,LiL,WangJ,etal.MM-REACT:PromptingChatGPTforMultimodalReasoningandAction[OL].arXivpreprint,arXiv:2303.11381.2023
[7]ShenY,SongK,TanX,etal.HuggingGPT:SolvingAITaskswithChatGPTanditsFriendsinHuggingFace[OL].arXivpreprint,arXiv:2303.17580,2023
[8]BorjiA.Acategoricalarchiveofchatgptfailures[OL].arXivpreprint,arXiv:2302.03494.2023
[9]LiuY,LiuX,ChenH,etal.DoesDebiasingInevitablyDegradetheModelPerformance[OL].arXivpreprint,arXiv:2211.07350.2022
[10]ZhuoTY,HuangY,ChenC,etal.Exploringaiethicsofchatgpt:Adiagnosticanalysis[OL].arXivpreprint,arXiv:2301.12867.2023
[11]CarliniN,TramerF,WallaceE,etal.ExtractingTrainingDatafromLargeLanguageModels[C]//ProcofUSENIXSecuritySymp.Berkeley,CA:USENIXAssociation,2021:2633-2650
[12]LuftJ,InghamH.TheJohariwindow,agraphicmodelofinterpersonalawareness[C]//ProcoftheWesternTrainingLaboratoryinGroupDevelopment.LosAngeles:UniversityofCalifornia,LosAngeles,1955,246
[13]GaoL,MadaanA,ZhouS,etal.PAL:Program-aidedLanguageModels[OL].arXivpreprint,arXiv:2211.10435.2022
[15]ShinnN,LabashB,GopinathA.Reflexion:Anautonomousagentwithdynamicmemoryandself-reflection[OL].arXivpreprint,arXiv:2303.11366.2023
[16]RossWD.AristotleonHisPredecessors,BeingtheFirstBookofHisMetaphysics[M](1908):110-113
[17]TarskiA.Thesemanticconceptionoftruth:andthefoundationsofsemantics[J].PhilosophyandPhenomenologicalResearch.1944,4(3):341-376
[18]YuJian.BrillianceandDarkness:TuringTest[J].JournalofComputerResearchandDevelopment,2020,57(5):906-911(inChinese)(于剑.图灵测试的明与暗[J],计算机研究与发展,2020,57(5):906-911)
[19]RussellB.AnInquiryintoMeaningandTruth[M].Beijing:ChinaCommerceandTradePress,2012(罗素.意义与真理的探究[M].北京:商务出版社,2012)
[20]XiaoG,LinJ,HanS.Offsite-Tuning:TransferLearningwithoutFullModel[OL].arXivpreprint,arXiv:2302.04870.2023
[21]HeldR,HeinA.Movement-producedstimulationinthedevelopmentofvisuallyguidedbehavior[J].JournalofComparativeandPhysiologicalPsychology,1963,56(5):872
[22]VempralaS,BonattiR,BuckerA,etal.Chatgptforrobotics:Designprinciplesandmodelabilities.2023
[23]BaiY,KadavathS,KunduS,etal.ConstitutionalAI:HarmlessnessfromAIFeedback[OL].arXivpreprint,arXiv:2212.08073.2022