人工智能行业点评:ChatGPT对算力的需求究竟如何?策略研报数据中心

Chatgpt成本主要可以拆分成训练和推理两个阶段。人工智能主要分为计算机视觉和自然语言处理两大基础方向,当前自然语言处理类任务基于大型语言模型(LLM,LargeLanguageModel)演进出了最主流的两个主要方向,BERT(基于Transformer的双向编码器表示技术)和GPT(基于Transformer生成预训练技术),Google属于BERT技术方向,微软投资的OpenAI属于GPT技术方向。从计算过程上,人工智能计算主要可以分为模型训练与推理两个阶段,针对大语言模型LLM更是如此,随着参数与数据规模的不断增大,将带动拉动算力需求的快速增长。

以英伟达DGXA1OO服务器作为计算资源:(1)单台服务器售价20万美元;(2)采用云服务单天成本约为460美元。根据英伟达官网数据,英伟达超算GPU系列从旧到新包括P100、V100、A100、H100等,其中,DGXA100系列服务器为2020年发布,是当前主流使用的超算服务器,单机有8个A100系列GPU,AI算力性能为5PetaFLOP/s,单机最大功率6.5kw,售价19.9万美元;如果租用云服务,根据亚马逊数据显示,在亚马逊AWS预定一年的A100系列GPU,有8个A100的AWSP4实例的平均成本约19.22美元,一天的平均成本约为461.28美元。

ChatGPT上一个30字的问题需要消耗计算资源0.12PetaFLOP/S。最常见的Transformer类语言模型在推理过程中每个token的计算成本(以FLOPs为指标)约为2N,其中N为模型参数数量(20年发布的GPT-3拥有1750亿参数,22年谷歌发布的PaLM拥有5400亿参数,由于并未公布当前GPT3.5的参数数量,当前假定参数数量为3000亿),假设模型的FLOPS利用率约为20%,粗略估计ChatGPT一个30字(假设约40个token,注:在英文语境下,一般1000个token=750个单词)问题需要的算力资源为2*40*3000亿/20%=0.12PetaFLOP/S。

推理成本:为满足当前用户访问产生的推理成本,自建IDC初始投入约在4亿美元,租用云服务每日成本约28万美元。根据Similarweb的数据,23年1月份当前ChatGPT日活约1300万人,每人平均1000字左右的问题,因此合计产生约130亿字(173.3亿个token),假设24小时平均分配任务,需要的A100GPU数量为173.3亿*2*3000亿/(20%*24小时*3600秒)=601.75PetaFLOP/S,由于访问流量存在峰值,假定访问峰值是一天均值的5倍,因此共需要602台DGXA100服务器能够满足当前的访问量。

(1)自建IDC:服务器成本约占数据中心成本30%左右,为满足当前日常访问需求,前期一次性成本投入约为602*19.9/30%=3.99亿美元;

(2)云服务:假设每天租用亚马逊AWS云服务,每天成本为461.28*602=27.77万美元。

训练成本:训练阶段每个Token的训练成本约为6N(推理成本为2N),由于每年训练成本都在快速下降,此处引用OneFlow的测算结果,在公有云中训练OPENAI的GPT-3模型需花费训练成本约140万美元,Google的PaLM模型需花费训练成本约1120万美元。

预计在ChatGPT结合Bing搜索功能后,其对算力资源的消耗将成数倍增长。当前ChatGPT模型可以理解为在一个在庞大训练数据集上训练的LLM,它会将训练期间的知识存储到模型参数中。在推理过程中(使用模型生成输出),LLM无法访问外部知识,仅依靠模型参数进行计算;如果将ChatGPT与搜索功能结合,如Bing等搜索引擎,其计算过程将通过搜索引擎返回多个查询结果,并通过GPT计算生成多个响应,在返回最高分的响应给用户,其对算力资源的消耗将成数倍增长,增长倍数取决于搜索和响应的个数。

投资建议:

风险提示:

模型假设不合理对测算结果造成偏差,ChatGPT商业化落地不及预期。

THE END
1.ChatGPT价格里掩盖的算力分布秘密新程序员ChatGPT 是一个复杂的自然语言处理平台,利用先进的机器学习算法来分析和创建类似人类的文本或说话方式。它的功能非常广泛,包括文本推演、文本分类和语言翻译等。针对这类模型,合理的定价方式会是一个有意思的问题。 对此,OpenAI 给出的答案非常新颖,其 ChatGPT 平台并没有按调用次数定价,而是对数据处理进行定价,这让https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/136265725
2.CHATGPT和算力有什么关系算力对于CHATGPT的训练、模型规模和推理速度都有一定的影响。较大的算力可以提供更快、更高质量的训练http://www.hlwwhy.com/ask/6709750.html
3.从ChatGPT爆火看人工智能大势开放注册两个月用户数破亿,ChatGPT火爆的背后是人工智能算法、算力和数据的再一次融合升级。现象级的ChatGPT带动人工智能第三次浪潮的再次飞跃和各国、各企业的AI竞赛。在人工智能领域,全球目前尚未形成绝对主导的技术依赖和产业生态,我国的新型举国体制如能发挥更大的作用,将给AI的发展提供极为有力的支持。中国人工https://www.cnii.com.cn/gxxww/zgdxy/ztjj/202304/t20230420_464182.html
4.毕文轩:生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为摘要:以ChatGPT为代表的生成式人工智能技术产生,在极大地提升人们工作效率的同时,也在相关领域带来了诸多法律风险。这种风险具体表现为:数据使用风险、生成内容滥用风险、算法滥用风险以及其他风险。目前我国虽然已经初步具备了有关人工智能的基本治理框架,但相关的理论以及实践仍在治理主体、治理规范设置、治理手段以及治理http://fzzfyjy.cupl.edu.cn/info/1035/15616.htm
5.一.ChatGPT只有有限的技术壁垒机器学习的核心算法是都是公开的算力是有后发优势的 每一年计算机的算力都在大量提升 只要晚几年甚至几个月就可以靠更强大的算力弥补很多东西 比如语音识别领域 小度 天猫精灵 小爱 Siri Alexa之间的差别都非常小 不能说小米和苹果在科技上已经拉平了 而是语音识别的难度已经很低了 二. ChatGPT只是一个处理自然语言的NLP模型 不可以进行预测 也https://xueqiu.com/3976999949/242252671
6.ChatGPT大模型训练数据集深度分析2024众所周知,算法、数据、算力是大模型时代的四方面重要因素。根据OpenAI 前期论文[16]和博客1介绍,ChatGPT 中数据集的规模和构建质量均高于以往的人工标注数据集。由此可见,在以 ChatGPT 为代表的大模型的训练中,数据集的收集、清洗和标注异常重要。本章将从预训练数据集以及人工标注的精调数据集两方面,详细介绍 http://www.360doc.com/content/24/0725/11/3066843_1129635578.shtml
7.2023ChatGPT人工智能新纪元.pdfChatGPT会成为科技行业的下一个颠覆者。 GPT的英文全称为GenerativePre-trainedTransformer(生成式预训 练转换器),是一种基于互联网可用数据训练的文本生成深度学习模 型。ChatGPT“脱胎”于OpenAI在2020年发布的GPT-3,任何外行都可以 使用GPT-3,在几分钟内提供示例,并获得所需的文本输出。 GPT-3刚问世时也引起了https://max.book118.com/html/2024/0112/5304213221011041.shtm
8.专题人工智能通用大模型(ChatGPT)的进展风险与应对报告PDF合集本合集集中研究大语言模型产品的研发要素和核心特征,并从语言模型准确性、数据基础、模型和算法能力、安全和隐私四个维度入手,拆分出12个细分维度,分别是语义理解、语法结构、知识问答、逻辑推理、代码能力、上下文理解、语境感知、多语言能力、多模态能力、数据基础、模型和算法能力、安全和隐私。针对ChatGPT、Claude、Saghttps://www.cnblogs.com/tecdat/p/17694573.html
9.是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现但这次以ChatGPT为代表的一众大语言模型,突然突破了这个门槛,变得非常“聪明”。当然背后的原因有很多,比如自监督学习、Fine-tuning策略等等,但有一个重要的底层变化——大语言模型的“涌现”(Emergent)现象,就是说一些业界从未想象到的能力,例如基础的社会知识、上下文学习(ICL)、推理(CoT)等等,在训练参数和数据量https://36kr.com/p/2210585582301824