人工智能行业点评:ChatGPT对算力的需求究竟如何?策略研报数据中心

Chatgpt成本主要可以拆分成训练和推理两个阶段。人工智能主要分为计算机视觉和自然语言处理两大基础方向,当前自然语言处理类任务基于大型语言模型(LLM,LargeLanguageModel)演进出了最主流的两个主要方向,BERT(基于Transformer的双向编码器表示技术)和GPT(基于Transformer生成预训练技术),Google属于BERT技术方向,微软投资的OpenAI属于GPT技术方向。从计算过程上,人工智能计算主要可以分为模型训练与推理两个阶段,针对大语言模型LLM更是如此,随着参数与数据规模的不断增大,将带动拉动算力需求的快速增长。

以英伟达DGXA1OO服务器作为计算资源:(1)单台服务器售价20万美元;(2)采用云服务单天成本约为460美元。根据英伟达官网数据,英伟达超算GPU系列从旧到新包括P100、V100、A100、H100等,其中,DGXA100系列服务器为2020年发布,是当前主流使用的超算服务器,单机有8个A100系列GPU,AI算力性能为5PetaFLOP/s,单机最大功率6.5kw,售价19.9万美元;如果租用云服务,根据亚马逊数据显示,在亚马逊AWS预定一年的A100系列GPU,有8个A100的AWSP4实例的平均成本约19.22美元,一天的平均成本约为461.28美元。

ChatGPT上一个30字的问题需要消耗计算资源0.12PetaFLOP/S。最常见的Transformer类语言模型在推理过程中每个token的计算成本(以FLOPs为指标)约为2N,其中N为模型参数数量(20年发布的GPT-3拥有1750亿参数,22年谷歌发布的PaLM拥有5400亿参数,由于并未公布当前GPT3.5的参数数量,当前假定参数数量为3000亿),假设模型的FLOPS利用率约为20%,粗略估计ChatGPT一个30字(假设约40个token,注:在英文语境下,一般1000个token=750个单词)问题需要的算力资源为2*40*3000亿/20%=0.12PetaFLOP/S。

推理成本:为满足当前用户访问产生的推理成本,自建IDC初始投入约在4亿美元,租用云服务每日成本约28万美元。根据Similarweb的数据,23年1月份当前ChatGPT日活约1300万人,每人平均1000字左右的问题,因此合计产生约130亿字(173.3亿个token),假设24小时平均分配任务,需要的A100GPU数量为173.3亿*2*3000亿/(20%*24小时*3600秒)=601.75PetaFLOP/S,由于访问流量存在峰值,假定访问峰值是一天均值的5倍,因此共需要602台DGXA100服务器能够满足当前的访问量。

(1)自建IDC:服务器成本约占数据中心成本30%左右,为满足当前日常访问需求,前期一次性成本投入约为602*19.9/30%=3.99亿美元;

(2)云服务:假设每天租用亚马逊AWS云服务,每天成本为461.28*602=27.77万美元。

训练成本:训练阶段每个Token的训练成本约为6N(推理成本为2N),由于每年训练成本都在快速下降,此处引用OneFlow的测算结果,在公有云中训练OPENAI的GPT-3模型需花费训练成本约140万美元,Google的PaLM模型需花费训练成本约1120万美元。

预计在ChatGPT结合Bing搜索功能后,其对算力资源的消耗将成数倍增长。当前ChatGPT模型可以理解为在一个在庞大训练数据集上训练的LLM,它会将训练期间的知识存储到模型参数中。在推理过程中(使用模型生成输出),LLM无法访问外部知识,仅依靠模型参数进行计算;如果将ChatGPT与搜索功能结合,如Bing等搜索引擎,其计算过程将通过搜索引擎返回多个查询结果,并通过GPT计算生成多个响应,在返回最高分的响应给用户,其对算力资源的消耗将成数倍增长,增长倍数取决于搜索和响应的个数。

投资建议:

风险提示:

模型假设不合理对测算结果造成偏差,ChatGPT商业化落地不及预期。

THE END
1.ChatGPT在数据处理中的应用如何用chatgdp处理csv数据? 在SQL结果中,我没有实际去验证。在Python结果中,使用了describe函数,还是很不错的。我们在Python中概览数据时,就是使用该函数。但是describe函数的结果中已经包含了非空值计数,而ChatGPT又单独计算了一次。 1.2 数据预处理 ? 数据预处理主要包括缺失值填充、重复值删除、异常值删除或替换。接下来看看ChatGPThttps://blog.csdn.net/weixin_41905135/article/details/136232210
2.如何利用CHATGPT分析数据快熟生成文案:无论是小红书、微博还是公众号, Chat GPT都能帮你快熟生成吸引眼球的文案,让你的创作更具有吸引力。自动撰写报告:无论是工作汇报还是项目 只需输入相关指令, Chat GPT就能为你生成结构清晰、内容肺腑的报告。Chat GPT使用技巧 1、准确提问 Chat GPT功能虽然非常强大, 但由于目前Chat GPT数据库http://www.hlwwhy.com/ask/6705610.html
3.chatgpt怎么做统计?Worktile社区2. 数据预处理:对采集到的对话数据进行预处理。预处理包括数据清洗、去除重复对话、去除噪声等步骤,以确保数据的质量和准确性。 3. 统计指标选择:根据分析的目的,选择适当的统计指标来衡量ChatGPT的性能和效果。例如,可以考虑以下指标:生成回答的准确率、可读性、相关性等。 https://worktile.com/kb/ask/539416.html
4.ChatGPT服务器,深度拆解基于此,我们进一步假设:1)考虑到AI大模型预训练主要通过巨量数据喂养完成,模型底层架构变化频率不高,故我们假设每月最多进行一次预训练;2)人类反馈机制下,模型需要不断获得人类指导以实现参数调优,以月为单位可能多次进行。由此我们计算得ChatGPT单月Finetune算力成本至少为1350.4PFlop/s-day。https://www.51cto.com/article/747956.html
5.从ChatGPT爆火看人工智能大势大数据。ChatGPT训练数据集规模巨大,训练数据集包含六类数据,分别是维基百科、书籍、期刊、Reddit链接、Common Craw以及专门的数据集。GPT-3的预训练数据有45TB。ChatGPT训练数据集规模未公开,推测也是百T级别。 大算力。GPT-3的算力需求为3640Petaflop/s-day(假设每秒计算1千万亿次,需要3640天),微软投入5亿美元建https://www.cnii.com.cn/gxxww/zgdxy/ztjj/202304/t20230420_464182.html
6.ChatGPT作为知识库问答系统的问答能力评测与现有的KBQA模型不同,ChatGPT在问答场景下的输出一般是一段包含了答案的文本,难以直接与数据集提供的答案做精确匹配从而得到模型的精准率。而由于采样的数据规模较小,已有的ChatGPT评估工作一般通过人工评价来计算模型的性能。因此,我们需要建立一套大部分自动化的答案评测方法。 https://maimai.cn/article/detail?fid=1777689012&efid=GJoGHmTuTzjbUa7TLdmtDw
7.ChatGPT原理理解和结构解读〖前言〗问了200+个问题后,终于完全搭建起来对Chat@GPT本身的原理理解和结构了解,形成的理解文件90%的内容都是他生成的。但是结构化这篇文章以及深入时刻,是自己完成的。今后的学习和工作可能都需要和他来共同完成了。 1 从概率角度理解生成式模型原理 https://www.jianshu.com/p/0628b1bd2c48