ChatGPT三篇文章摘录研究成果广西壮族自治区信息中心

编者按:ChatGPT是由OpenAI公司推出的一款人工智能聊天机器人程序,能实现撰写邮件、视频脚本、文案、翻译、代码,写论文等任务,被认为正在“掀起新一轮AI革命”。ChatGPT上线不到一周日活用户破百万,2个月破亿,迅速火爆全网,成为史上用户增长速度最快的消费级应用。ChatGPT的推出将不断拓展海量应用场景,赋能传统领域智能化发展,推动AI行业开启新发展浪潮。

本期要目

ChatGPT的概念特征及发展现状

ChatGPT的技术发展路径

ChatGPT的未来应用场景

一、ChatGPT的概念特征

ChatGPT是由人工智能研究实验室OpenAI在2022年11月30日发布的全新聊天机器人模型,一款人工智能技术驱动的自然语言处理工具。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。

表1ChatGPT特点

ChatGPT是在GPT3.5大模型语言模型(LLM,即LargeLanguageModel)的基础上,加入“基于人类反馈的强化学习(RLHF,ReinforcementLearningfromHumanFeedback)”来不断微调(Fine-tune)预训练语言模型,使得LLM模型学会理解不同类型的命令指令,并通过多重标准合理判断基于给定的prompt输入指令,输出的是否为优质信息(这些标准包括:富含信息、内容丰富、对用户有帮助、无害、不包含歧视信息等)。

二、ChatGPT的优势与独特性

目前,ChatGPT不需要任何额外的训练就能在多种不同的领域中应用并快速输出高质量的文本,相较于以前的模型已具备较强的自然语言处理能力,具体来讲可归纳为以下几点:

第一、更强的对话能力:ChatGPT支持多轮对话,在自然语言交互方面、情感分析、情景会话等方面运行流畅,在语言模仿能力和逻辑判断方面展现出更强的能力。

第二、更全面的语言能力:ChatGPT支持多种语言环境,并且支持长短句输入,在阅读理解、复杂语句处理、逻辑能力和文本生成方面更加灵活。

第三、更高精度的预测结果:ChatGPT的训练模型支持大规模数据集,具备海量的话题库,通用性更强。

三、ChatGPT现存的缺陷和发展瓶颈

(一)精准性、真实性、重复率和依赖性尚待改善

第二、在较长的会话中,由于训练数据的偏差和过度修正,ChatGPT会过度强调某些短语或者句子,导致重复性高的问题。例如它会重申它是由OpenAI训练的语言模型,这可能源于训练者对模型回答全面性的优化。而且,ChatGPT对多次调整输入措辞或尝试相同的输入指令也会很敏感。例如,给定一个问题,模型可以声称不知道答案或拒绝回答,但在指令稍作调整后,ChatGPT也会识别并回答。

第三、ChatGPT的强大能力依赖语料库、数据量的抓取和复杂的训练过程,训练成本和所需算力的成本都很高。如果数据库的收录内容质量不高或者数据量不够大,将会影响生成文本内容的质量和精细度,而且ChatGPT模型训练和优化过程较为复杂,需要专业的人员进行操作,训练成本和所需算力的成本都很高。最重要的是,ChatGPT模型依赖于大规模离线语料进行训练,往往不能充分接受并采用在线提供的即时信息,难以理解对话中提及的因果关系,也无法基于已有信息进行推测,这距离人类举一反三的能力相差较远。

(二)发展瓶颈:人工智能的安全性和伦理约束

表2GPT三代的对比

一、GPT初代:无监督的预训练结合有监督的模型微调

2018年,在自然语言处理领域(NLP)刚兴起时,OpenAI就推出的初代GPT,它的运行逻辑是:先通过无标签数据学习生成语言模型,并能够运用于一些与有监督任务无关的NLP任务中。此后再根据特定的下游任务进行有监督的微调,提高其泛化能力。常用的有监督任务主要有:

自然语言推理:判断两个句子的关系,是包含关系、矛盾关系或者中立关系;

分类:判断输入文本的指定类别。

在经过有监督的微调后,GPT-1的泛化能力会得到明显提升,且随着训练次数的增加,GPT-1的性能逐步提升。但是初代GPT仅仅使用了解码器部分,其transformer结构中对于词向量的学习能力得到发挥,能够实现较好地语言理解,适用于文本生成领域,但在通用语言和会话交流方面,还有较大的欠缺。

二、GPT-2:扩展了网络参数和数据集,进行多任务学习

相较于初代GPT,2019年推出的GPT-2整体上结构和设计没有变化,但学习目标是使用无监督的预训练模型作为有监督学习的任务,其核心逻辑在于让所有监督学习成为无监督语言模型的子集。换言之,GPT-2可以在数据量足够丰富且模型容量足够大时,通过训练语言模型就能够完成有监督学习的任务。实际训练中,GPT-2和GPT初代不同点在于:

(二)更庞大的网络参数:将transformer的层数增加到48,隐层(hiddenlayer)维度扩展到1600,实现了15亿的参数量;

(三)不再针对不同的任务建模微调:将机器翻译、自然语言推理、语义分析、关系提取等10类任务统一建模为一个分类任务,让模型在预训练中自己识别任务。

在性能方面,GPT-2可以在多个特定的语言场景下良好地完成NLP任务,除了语言理解能力外,还可以胜任翻译生成、故事编写、总结摘要等。这些能力基于海量数据和大量参数训练的词向量模型,不需要监督微调和额外的训练即可迁移,基本实现了元学习。同时,GPT-2能够让数据库中词向量包含的信息在多任务中通用,实现了信息脱离具体的NLP任务存在,也证明了随着模型容器和数据量扩充,GPT的无监督学习具有很大的提升空间。

三、GPT-3:海量参数,成就最强大的语言模型

四、InstructGPT和ChatGPT:更好地遵循用户意图、更少的虚假信息

相较于GPT-3,OpenAI在2022年初发布了InstructGPT。该语言模型在GPT-3的基础上进行微调,并在工作原理上增加了对齐研究,强化InstructGPT模型的语义理解;同时,通过“基于人类反馈的强化学习(RLHF)和监督学习”来提高输出质量。具体地,开发人员可以将训练划分为三个阶段:

第一阶段:冷启动阶段的策略模型。随机抽取用户提交的指令或问题,即prompt,并进行专业的人工标注,用这些指定的prompt和高质量答案共同微调GPT-3.5模型,使之初步具备理解输入指令或问题的能力。

第二阶段:训练回报模型。在第一阶段生成的众多结果中,根据结果质量由人工标注排序并作为训练数据,通过监督学习中的匹配排序训练回报模型对语言模型预训练的输出结果评分,回答质量越高,分数越高。

第三阶段:采用强化学习来增强预训练模型的能力。利用第二阶段学好的RM模型更新预训练模型的参数,不断从prompt库中抽取新命令,通过PPO(ProximalPolicyOptimization)算法生成回答后,循环执行第一到三阶段进行强化训练,最终鼓励LLM模型能够输出更高质量的回答。

虽然InstructGPT的参数量仅为13亿左右,相比于GPT-3缩小了100倍以上;但在遵循指令方面,能够更好地遵循用户意图,将有害的、不真实或者有偏差的信息输出最小化。在优化的模型上,ChatGPT基于InstructGPT进一步改进,在模型结构和训练流程上遵循上述方式,但收集和标注数据的方式上发生了变化。

InstructGPT模型需要先完成类似的输入、输出匹配,取得多个匹配结果后再跟模型的预训练数据对比,在第二阶段的RM中只有奖励、没有惩罚机制;而ChatGPT则是在输入prompt,模型输出多个answer后,直接对输出结果进行人为排序,根据排序后的结果让模型完成预训练中从最优到最劣的排序。通过采取监督学习的方式让模型学习人类排序的方式。

THE END
1.ChatGPT与GPT3的区别与优势gpt3chatgpt当前,大模型的研究处于快速迭代和发展之中,不仅在学术界,在工业界也得到了广泛应用。GPT-3和ChatGPT是这一趋势下的重要里程碑,展示了模型参数量与任务表现之间的紧密关系。 1.3 研究意义 深入理解GPT-3与ChatGPT的区别及其优势对于推进自然语言处理技术的发展具有重要意义。这些模型的出现不仅提升了现有任务的解决效率https://blog.csdn.net/universsky2015/article/details/140028578
2.ChatGPT技术原理ChatGPT是由GPTChatGPT技术原理 ChatGPT 是由 GPT-3 迭代来的,原有的 GPT-3 可能难以从文本中学会一些,这就导致了 GPT-3 这样的语言模型,。Cha 来源于CSDN博主 Runjavagohttp://t.cn/A6OjShjz 的博客http://t.cn/A6OjShjhhttps://weibo.com/1764241425/Nkh1r5viV
3.一招鉴别真假ChatGPT,简述ChatGPTGPTGPT2和GPT3GPT-3是一种自然语言生成模型,它是目前规模最大的预训练模型之一,可以生成高质量的自然语言文本,包括文章、诗歌、对话等。GPT-3的模型规模比ChatGPT大得多,拥有13亿甚至更多的参数,因此它的生成质量和多样性比ChatGPT更高。GPT-3还支持一些其他的自然语言任务,例如翻译、问答、语义搜索等。 http://www.360doc.com/content/23/0319/10/26635931_1072648229.shtml
4.chatgpt接口请求参数详解GPTAPI和ChatGPTAPI(即GPTGPT-3 API:必选参数为model,prompt可选(参见documentation) ChatGPT API(即GPT-3.5 API):所需的参数是model和messages(参见documentation) 在使用ChatGPT API(即GPT-3.5 API)时可以看到: prompt参数甚至不是一个有效的参数,因为它被messages参数替换。 https://juejin.cn/post/7249397451054940197
5.解析ChatGPT背后的技术演进GPT-1、GPT-2和GPT-3的训练数据和参数量级对比 3.4 ChatGPT OpenAI公司在GPT-3与ChatGPT之间发布了多个迭代版本,其中包括:2021年7月推出了Codex系列;2022年1月,引入RLHF(基于人工反馈的强化学习)得到了InstructGPT;2022下半年,推出了融合Codex和InstructGPT的ChatGPT,使用了基于人类反馈的强化学习的版本指令微调模型https://www.51cto.com/article/768469.html
6.ChatGPT原理理解和结构解读(2)加载预训练模型:将预训练的ChatGPT模型加载到内存中,并根据任务需求调整模型的超参数。 (3)设置微调模型:根据具体任务,对预训练模型进行微调,并设置成本函数或风险函数。 (4)训练模型:使用训练集对微调模型进行训练,并根据验证集的表现调整模型参数。 https://www.jianshu.com/p/0628b1bd2c48
7.一文读懂ChatGPT的前世今生行业动态新闻中心#8 GPT-3 2020年5月,OpenAI发表了一篇论文:Language Models are Few-Shot Learners (语言模型是小样本学习者)。 31位作者、75页、320万token、1750亿参数、数据集45TB,训练花了3640pfs-day,训练一次的费用保守估计是460万美元,总训练成本估计达到了1200 万美元。暴力出奇迹。此时微软已经投资OpenAI(2019年投了10https://www.ulucu.com/news/industry/what-is-chatgpt
8.ChatGPTNextWebPro:基于chatgptnext1.Midjourney,该功能基于ChatGPT-Midjourney,使用antd进行了完全的重构,界面更加合理,参数更加全面。 2.Stable-Diffussion,支持lora模型,文生图、图生图、后期处理、图片信息,近乎完整的参数设置,以及图片完成后的功能按钮。 3.Dall-E-3,兼容dall-e-2,需要配置文件上传和存储功能,因为openai返回的链接有效期很短,过https://gitee.com/vual/ChatGPT-Next-Web-Pro
9.chatgpt本地部署最低配置本地部署ChatGPT(Chat Generative Pre-trained Transformer)是指将ChatGPT模型部署到本地计算机上,使得用户可以在本地使用ChatGPT进行对话生成。本地部署具有一些优势,例如可以减少网络延迟、保护用户隐私,同时也可以在离线环境中使用。由于ChatGPT模型具有大量的参数和计算要求,合适的电脑配置是必要的。 http://chatgpt.cmpy.cn/article/2351568.html
10.GitHubademzhang/ChatGPTNextWebPro:基于chatgptnext1.Midjourney,该功能基于ChatGPT-Midjourney,使用antd进行了完全的重构,界面更加合理,参数更加全面。 2.Stable-Diffussion,支持lora模型,文生图、图生图、后期处理、图片信息,近乎完整的参数设置,以及图片完成后的功能按钮。 3.Dall-E-3,兼容dall-e-2,需要配置文件上传和存储功能,因为openai返回的链接有效期很短,过https://github.com/ademzhang/ChatGPT-Next-Web-Pro
11.是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现搞清楚这些问题其实非常重要,短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。 长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者https://36kr.com/p/2210585582301824
12.如何免费使用GPT4或ChatGPT4(2)进入GPT-4插件页面,点击Click to Create an Instance创建实例。 (3)按需填充相关参数配置,貌似使用默认的OpenAI的key无法使用,可能需要填写自己的key。完成参数填写点击Create即可使用ChatGPT聊天。 5. 在nat.dev上免费使用ChatGPT-4 nat.dev支持邮箱注册或者使用Google账号登录。曾经免费的nat.dev,现在也扛不住https://www.wbolt.com/how-to-use-gpt-4-free.html
13.ChatGPT兴起,创成式AI能否重塑工具软件底层逻辑?在ChatGPT推出之后,微软计划对OpenAI追加100亿美元投资并在旗下搜索、办公软件中探索融合应用场景。由于ChatGPT显现出的巨大应用潜力与可能性,全球广大应用厂商也均开始积极尝试接入OpenAI的技术接口,以期AI与其现有产品能够产生新的化学反应。国内市场亦快速跟进,百度宣布旗下对标产品文心一言将于3月完成内测、面向公众https://news.futunn.com/post/24629911?futusource=news_newspage_recommend
14.快科技资讯2023年02月14日Blog版资讯中心同时,在大模型的框架下,ChatGPT所使用的GPT模型,每一代参数量均高速扩张,预训练的数据量需求和成本亦快速提升。 国盛证券计算机分析师刘高畅、杨然在发表于2月12日的报告《Chatgpt 需要多少算力》中估算,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。 https://news.mydrivers.com/blog/20230214.htm
15.chatgpt说它有上千亿的参数,是什么意思?简介:chatgpt说它有上千亿的参数,是什么意思? 最近在捣鼓深度学习,今天突然开窍,对于大模型、上千亿参数的理解顿悟了,所以才有了这篇文章。 一个通俗易懂的模型举例 先用一个最简单的例子来说明,例如身高和体重之间是有一定对应的关系的。 如果我们有了非常多身高与体重对应关系的数据,我们就可以运用这些数据得到https://developer.aliyun.com/article/1228733
16.人人看得懂的ChatGPT技术原理解析这是对支撑ChatGPT工作的机器学习模型的一段简略的介绍:以大型语言模型为基础,然后深入研究使GPT-3能够被训练的自注意力机制,再从人类的反馈中进行强化学习,这就是使ChatGPT与众不同的新技术。 大型语言模型 Large Language Models ChatGPT是一种机器学习自然语言处理模型的扩展,称为大语言模型(LLMs)。LLMs能够读https://blog.itpub.net/70018536/viewspace-2937077/