ChatGPT研究及投资猜想

渐进:OpenAI在2020年的一篇论文中指出,在到达极限前,随着模型参数、数据量、以及算力的指数级提高,模型能力虽然也会指数级提高,但是提高的速度很慢,如下图所示:

其中横轴是算力、数据量、参数量,纵轴体现了模型的性能(越小越好)。

也就是说,算力量达到一定程度后,大模型会突然学会一些能力,这个过程就叫做涌现。研究人员总结了不同大模型涌现出的各种能力,包括加减运算、chain-of-thought等等。可以看出,越是复杂的能力,涌现所需要的算力越多(当然也跟训练的方法有关)。

其中,chain-of-thought能力如下图所示:

由此,我们可以得出第一个结论:大模型的算力、参数量、数据量还会继续增加,目前还远远没有看到顶点。

算力、参数量和数据量的关系

当参数量和数据量增加时,所需求的算力量毫无疑问也在增加。过去,无论是参数量还是算力量都经历了非常快速的指数级提升:

算力的指数级提升

参数量的指数级提升

但是,2022年DeepMind的一篇论文发现,当算力一定时,模型参数量并不是越大越好,而是有一个最优解。图中左一的每一条线上的不同点都代表了同样的算力,可以看出当参数量达到一定数量时,大模型的性能达到最高(图中的最低点)。

由此,我们可以得到第二个结论:大模型的性能取决于其训练用的算力多少,调整参数量只能挖掘出当前算力水平下的最高潜力。

因此,当评价一个大模型时,算力量而非参数量才是更好的指标。

另外,根据论文中的对比结果可看出,在GPT-3当前的参数量级下,GPT-3并没有达到最优化的性能。因此,我们推测GPT-4的参数量会比GPT-3更大,但不会像GPT-2到GPT-3那样有100倍的提升,而是更多地增加训练用的数据量,从而提高整体的算力用量,达到最优化的状态。

投资机会

AI行业TAM

AI行业的TAM毫无疑问是十分巨大的,但是怎么计算却各有说法。我们按照AI对人类工作效率的提升幅度来粗略计算了一下:

2022年,美国就业人数160m,人均年薪5万美金,假设有30%的人可以借助ChatGPT把效率提高10%(只考虑目前的chaGPT技术),并且这些人的年薪为8万美金,那么提高的价值就有3840亿,即使AI收费只有这些价值的10%,在美国的TAM也有380亿,全世界可能有800亿美元左右。

如果GPT继续进步,在25-30年做到帮60%的人把效率提高30%,平均年薪7万美金,收费保持在10%,那么美国的TAM就有2000亿,全世界就是4000亿。

短期:

2021年底office236m订阅人数(Windows14亿月活),年费136美元,假设渗透office的50%,将GPT集成到各类办公软件中后,订阅费增加每年100美元(目前charGPTpro是240美元),对应收入12b,相当于22年微软收入(198b)的6%

长期:

训练(Training)

AI大模型对算力的需求主要在两个方面:训练和推理。训练对应的是研发成本,推理对应的是运营成本。

具体来看,DeepMind在19年就亏损了约5亿英镑,OpenAI在22年也亏损了5亿美元。因此每年的算力花费应该就是3-4亿美元的量级。考虑到有能力并且有野心做基础大模型的公司并不多,我们假设22年有4家OpenAI级别的公司,23年及以后有6家。每家算力量的需求以200%的增速增长,而算力的需求则以~40%的速度下降。由此可以算出AI训练所需要的资金成本,然后就可以根据云计算公司的商业模型转换到对硬件的需求,进而算出对NVDA、TSM等公司的影响。

根据计算结果可见,训练给NVDA带来的收入贡献只有2-3%,对TSM的贡献不到1%,可以说并没有决定性的影响。

推理(Inference)

当AI大模型大规模应用的时候,推理成本就会大幅增加,并且会随着AI推广而快速提高。我们考虑了搜索、聊天、office等AI应用,对推理带来的机会做了粗略的测算。

其中,我们假设微软新必应搜索的渗透率提高到26年的20%,并且AI推理成本在23年快速下降(首次商业化应用,成本的下降空间很大)。尽管OpenAI已经宣布将ChatGPT的定价减小了10倍,我们并不认为这是已经实现的结果,而是快速占领市场的低价策略。

我们预计未来几年AI推理对微软的贡献能达到23%,对NVDA的贡献有7%,而对TSM的贡献只有3%。也就是说,受益于OpenAI最多的是下游应用(微软),其次是GPU等硬件(NVDA),最后才是TSM这种晶圆厂,这也符合半导体行业上游少,下游多的特点。

附录

NVDAGPU进步速度

H100和A100的性能对比:

这里是GPU本身性能的进步,考虑到系统级的优化(NVLink、HBM等等),算力单价的下降幅度会更多。

SamAltman称,一个全新的摩尔定律可能很快就会出现,即宇宙中的智能数量每18个月翻一番。

技术路线

框架上:GOOG的tensorflow使用率越来越低(4%),目前主流是Pytorch(62%)。

总结

GPT4的模型参数量不会像之前一样提升几百倍,但是训练数据量可能会增加很多;加上算法优化,总体算力的需求预计提高10倍左右;

大模型的能力预计还是会继续提高,可能会有新的能力涌现出来,带来更广泛的应用场景,不过这个问题没法提前研究;

AI对下游的影响最大,到26年对微软的收入贡献增量可能会达到20+%

NVDA:近两年的影响不大,到26年主要由traning阶段贡献2-3%的收入,inference贡献增量7%的收入;

TSM:近期影响不大,到26年也只贡献增量~4%的收入,主要影响的是对HPC的需求和节奏。

THE END
1.ChatGPT技术应用分享一个小技巧,解锁ChatGPT「预测未来」?新研究利用了ChatGPT在2021年9月的训练数据截止这一限制,比较了ChatGPT在直接预测和未来叙事预测两种不同提示方式下,预测2022年各种事件上的表现。结果显示,未来叙事预测方法在预测2022年奥斯卡奖得主时表现出色,在预测宏观经济变量时,ChatGPT-4的表现也有所提高。 https://blog.csdn.net/xzs51job/article/details/141549024
2.chatgpt用户量预测导读:为帮助您更深入了解chatgpt用户量预测,小编撰写了chatgpt用户量预测,chatgpt用户量分析,chatgpt用户总量,chatgpt用户量,chatgpt用户数量等5个相关主题的内容,以期从不同的视角,不同的观点深入阐释chatgpt用户量预测,希望能对您提供帮助。 本文目录一览 http://chatgpt.cmpy.cn/article/1731571.html
3.怎么通过chatgpt做数据预测ChatGPT是是由人工智能研究实验室OpenAI在2022年11月30日发布的全新聊天机器人模型,一款人工智能技术驱动http://www.hlwwhy.com/ask/6693025.html
4.AI炒股胜率几何?ChatGPT如何预测股价在受访人士看来,相比传统的AI模型,ChatGPT大规模预训练模型有多方面优势。在股价预测领域,大模型可以处理大量异构数据,如股票交易数据、宏观经济数据、公司财务报告等,同时还可以处理非结构化数据,如新闻报道、社交媒体信息等,这使得大模型能从多方面捕捉市场信息,提高预测准确性。 https://wap.eastmoney.com/a/202306152752219380.html
5.一.ChatGPT只有有限的技术壁垒机器学习的核心算法是都是公开的二. ChatGPT只是一个处理自然语言的NLP模型 不可以进行预测 也没有真正意义上的逻辑 与替代人工还有很大距离 至少现在远远没到那个程度 ChatGPT最强大的应用仍然是是写文章 应用场景包括改写、扩写、概括等等 相当于Grammarly Pro Max Ultra Master Supreme版 再加上答案有限以及仅能以文字展示 说ChatGPT要改变搜索引https://xueqiu.com/3976999949/242252671
6.ChatGPT能否预测股价走势?——回报可预测性与大型语言模型GPT(生成预训练转换器)架构是一种用于自然语言处理任务的深度学习算法,它基于Transformer架构,具有语言翻译、文本总结、问题回答和文本完成等能力,在一系列自然语言处理任务中都表现先进的性能。ChaGPT类大模型人工智能有广泛的应用场景,包括金融领域,因此,本文十分具有前瞻性的讨论ChatGPT在预测股票市场收益方面的能力。http://sxy.cupl.edu.cn/info/1279/10321.htm
7.首发类ChatGPT大语言模型背景下计算机兵棋面临的机遇挑战及经历200多年的历史积淀,兵棋从研讨型、手工型、到复杂的计算机系统支持,当前进入快速发展期。ChatGPT自2022年底推出以来,其强大的“人机对话”能力吸引了全球目光。2023年1月,美国防信息系统局(DISA)将类ChatGPT大语言模型(以下简称大语言模型)底层的“生成式AI技术”(AIGC)列入“技术观察清单”。大语言模型的突破性http://www.360doc.com/content/24/0511/17/1676247_1123011509.shtml
8.2023ChatGPT人工智能新纪元.pdfChatGPT狂潮引发的产业颠覆与模式创新。同时,本书对未来的强人工 智能与人类社会的关系进行了深度研讨。 4 前言 从2022年末到了2023年初,ChatGPT火遍了全球互联网。 2022年11月30日,OpenAI发布AI对话模型ChatGPT。由于ChatGPT 的能力过于惊艳,上线仅5天就吸引了100万名用户。推出两个月后, ChatGPT的月活跃用户https://max.book118.com/html/2024/0112/5304213221011041.shtm
9.ChatGPT与深度学习有什么关系?3.特征提取和模式识别:ChatGPT和深度学习都可以学习和提取数据中的复杂特征和模式,并实现高效的分类和预测。 4.模型优化和改进:ChatGPT和深度学习都需要通过模型优化和改进来提高性能和精度,例如优化损失函数、调整模型参数、改进训练算法等。 ChatGPT是一种基于深度学习的人工智能模型,其核心技术是神经网络。ChatGPT和https://www.gaodun.com/xinzhiye/1437993.html
10.ChatGPTChatGPT是OpenAI开发的、具有语言预测与文本续写功能的一个大模型。一个用对话的方式进行交互的模型。一种基于互联网可用数据训练的文本生成深度学习模型。一个人工智能聊天机器人程序。 ChatGPT是一款建立在云计算、海量数据库、人工智能算法架构和深度神经网络基础之上开发的聊天机器人程序,它不像传统的搜索引擎一样复制https://www.jianshu.com/p/805abc3dcaae
11.ChatGPT背后的创新支撑机制及对我国的启示OpenAI在运营模式上的一个重要创新,是将算法研究与软件工程相结合,采用工程化思维推动技术迭代。OpenAI联合创始人、现任总裁格雷格·布洛克曼(Greg Brockman)表示,OpenAI从成立之初,就在打造一支“能将软件工程与算法研究相结合的团队”。ChatGPT的研发流程也同样呈现出了工程化的特点。ChatGPT团队进行了业务拆分和流水线https://jjwmsj.cbg.cn/show/8142-2885961.html