ChatGPT背后的算力博弈,中国企业亟待打破美国桎梏

如今AIGC市场一片鲜花着棉烈火烹油,不论是ChatGPT、AUTOGPT,或者国内的文心一言,市场乱烘烘你方唱罢我登场,不断登上热搜。

华西证券预测,全球AI软件市场规模将在2025年达到1260亿美元,2021年到2025年复合增长率为41.02%。

ChatGPT繁荣的背后,是堪称天文数字的算力支持。

据测算,AI训练服务器方面,单个大语言模型训练驱动AI训练服务器需求约2亿美元;AI推理服务器方面,如ChatGPT在初期便可带动推理服务器需求约45亿美元。

算力作为大模型的核心引擎,它的计算公式很简单:有多少枚GPU芯片就能产生多大的算力,高端GPU芯片的数量,能直接影响算力的大小。

ChatGPT所需要的算力并不是固定的,反而是逐次递增。ChatGPT越聪明,背后的代价是所需算力越来越多。

据媒体推测,GPT-3训练成本预计在500万美元/次,GPT-3模型需花费训练成本约140万美元,Google的PaLM模型需花费训练成本约1120万美元。

据微软高管透露,为ChatGPT提供算力支持的AI超级计算机,是微软在2019年投资10亿美元建造的一台大型顶尖超级计算机,配备了数万个英伟达A100GPU,还配备了60多个数据中心总共部署了几十万个英伟达GPU辅助。

为了满足与日俱增的ChatGPT算力需求,微软宣布将推出基于英伟达最新旗舰芯片H100GPU和英伟达Quantum-2InfiniBand网络互连技术,推出Azure可大规模扩展的AI虚拟机系列,以显著加速AI模型的开发。

看上去,ChatGPT的背后就是满篇的英伟达、英伟达和英伟达。

实际上,英伟达作为硬件霸主,不仅在消费级市场占据大部分市场,也是AI服务器芯片领域的头号选择。

不仅涨价买不到,甚至美国还禁止英伟达卖芯片。在去年8月,美国政府发布出口管制政策,禁止英伟达将A100、H100两款芯片售往中国。

为了不丢掉中国市场,又符合美国出口管制,英伟达随后推出“性能阉割版”A800、H800芯片。但这两款芯片同样被供不应求的市场一抢而空,价格也随之水涨船高。

以百度阿里腾讯为首,国内大部分互联网公司都已经宣布进军大模型。市场统计,从ChatGPT之后,中国年内即将推出的大模型数量已超10个。

如果想要达到ChatGPT的水准,至少需要3000枚A100芯片,以9万/枚的价格来算就是2.7亿人民币才能完成一个大模型部署;10个大模型就需要3万枚A100芯片,27亿人民币。

恍惚间,矿卡时代又再次来临。

面对市场需求激增,借AI浪潮翻身的英伟达很鸡贼的推出“算力租赁”服务。

3月21日,2023年GTC大会上,英伟达创始人兼首席执行官黄仁勋推出NVIDIADGXCloud,可以为企业提供训练生成式AI高级模型所需的基础设施和软件。DGXCloud每个实例配有8个H100或A10080GBGPU,企业可以“云租赁”的形式按月租用DGXCloud集群,价格为每实例3.7万美元/月起。

英伟达真的没有替代品吗?为什么企业宁愿选择租赁,也不选择其他GPU芯片商?

IDC数据显示,国内GPU服务器在2021年占国内服务器市场规模的比例超过88.4%,使用英伟达的产品占比超80%。

AI大模型所需要的芯片在处理信息的精细度和算力速度要求更高,在超算领域,双精度浮点计算能力FP64是进行高算力计算的硬性指标。而英伟达的H100、A100是目前唯一具备这些能力的芯片。

美国卡脖子的并不只有英伟达芯片的售卖,从技术、设备、材料都限制中国企业的研发。但在美国的重重限制下,中国企业仍然顶着压力跑出几匹黑马。

根据IDC最新发布的《中国加速计算市场(2021年下半年)跟踪报告》,2021年全年中国AI服务器市场规模达350.3亿元,同比增长68.6%。

在企业级GPU芯片领域,中国厂商壁仞科技在2022年推出“BR100”芯片、天数智芯推出了“智铠100”芯片、寒武纪推出了“思元270”芯片。

其中壁仞科技称,BR100拥有全球最高算力,峰值算力达到了市场在售旗舰产品的三倍以上,16位浮点算力达到1000T以上、8位定点算力达到2000T以上,单芯片峰值算力达到PFLOPS级别。

虽然数据良好,但缺少至关重要的处理FP64的能力,依然无法完全取代英伟达H100、A100俩兄弟。

并且,英伟达使用的CUDA平台早已成为应用最为广泛的AI开发生态系统,只支持英伟达的Tesla架构GPU,在现阶段根本无法用国产芯片取代。

借着大模型东风一路上扬的不止AI服务器和GPU芯片,还有储存器市场。

ChatGPT的运行条件包括训练数据、模型算法和高算力,其中高算力的底层基础设施是完成对海量数据、训练的基础。

最显而易见的特点就是ChatGPT经历数次迭代之后,参数量从1.17亿增加到1750亿,近乎两千倍的增长,也给计算存储带来极大的挑战。

AI新时代开启,预计全球数据生成、储存、处理量将呈等比级数增长,存储器将显著受益。而计算存储是ChatGPT的重要基石,随着阿里、百度等科技巨头类ChatGPT项目入局,整体计算存储市场需求将进一步快速提升。

随着AIGC持续火热,北京、上海、广州等数字经济发达地区也出台了政策推进智算中心建设。比如,北京市提出“新建一批计算型数据中心和人工智能算力中心,到2023年,培育成为人工智能算力枢纽”;上海市提出“布局建设一批具有高性能、高吞吐的人工智能算力中心,推动公共算力服务平台建设”等。

THE END
1.CHATGPT对算力的需求如何颠覆芯片的底层架构设计,存算一体,正是突破算力瓶颈、摆脱存储宽带限制的一条路径。关键词之一,是顺势。 大部分读者都知道,算法、算力和数据是大模型时代的三大基础要素,ChatGPT引爆了算力要求的“核聚变”。当摩尔定律已经被逼近物理极限,如何突破算力瓶颈已成为业界重点突围的方向之一,因为模型计算量的增长速度,已经远http://www.hlwwhy.com/ask/6690483.html
2.ChatGPT价格里掩盖的算力分布秘密新程序员【导读】当前,大语言模型的商业化持续进行,本文聚焦这一变革背景下的 ChatGPT 定价机制,深入剖析其核心技术内涵。通过细致研究 ChatGPT-3.5 turbo 采用的 Decode-Only 架构,作者系统地探讨了模型在接收到输入提示并生成相应输出的过程中,如何差异化利用 GPU 算力资源,进而阐明了支撑该定价策略的独特技术原理。 https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/136265725
3.投资者提问:CHATGPT时代来临,对算力要求将巨幅提高,请问公司在CHATGPT时代来临,对算力要求将巨幅提高,请问公司在提高算力上有什么技术吗? 董秘回答(网宿科技SZ300017): 投资者,你好。公司自成立来坚持深耕数字经济基础设施层与平台层,包括数据中心,混合云和云管平台,CDN,云安全及边缘计算平台等。通过提供计算、存储、网络及安全等新一代信息技术服务,助力互联网客户、政府及企业https://finance.sina.cn/stock/relnews/dongmiqa/2023-03-09/detail-imykhfhw9958631.d.html
4.ChatGPT服务器,深度拆解AI大模型训练需求火热,智能算力规模增长有望带动AI服务器放量。 ChatGPT发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布GPT模型开发计划。据各公司官网,2023年2月7日,百度宣布将推出ChatGPT类似产品“文心一言”,预计今年3月展开内测;2月8日阿里宣布阿里版ChatGPT正在研发中,目前处于内测阶段;2月9日,字节https://www.51cto.com/article/747956.html
5.ChatGPT正在榨干算力,如何打赢这场算力攻坚战?互联网在这之中表现最为亮眼的,莫过于从GPT-3迭代而来的ChatGPT,2022年底一出世就博得全球目光,无论是在模型预训练阶段,还是模型被访问阶段,ChatGPT都对算力提出“史无前例”的要求。 在模型预训练阶段,从GPT-1到GPT-3,从GPT-3 Small到GPT-3 175B,对算力的需求呈指数型增长。 https://news.iresearch.cn/yx/2023/03/463121.shtml
6.关于ChatGPT的五个最重要问题iPhone的交互方式和各种传感器,让iPhone慢慢变成了人类的身体的一部分,一个带来更多信息,高效交互的器官。ChatGPT已经接近目前人类调用算力和数据的最终极形态了,其应用方式本身当然是足够厉害的。我们在第二问,ChatGPT会取代哪些工作里,详细展开。 这里也牵涉到了一个重要的题外话,我们在讨论中发现,很多资深AI从业者,http://www.360doc.com/content/23/0317/18/1072439854_1072439854.shtml
7.令小雄王鼎民袁健:ChatGPT爆火后关于科技伦理及学术伦理的冷ChatGPT 能讲“人话”是基于 OpenAI 公司开发的一个 GPT-3.5 架构的大型语言模型,通过强化学习训练人工智能聊天机器人程序,能够广泛应用于业界和客户服务,基于 Transformer 架构的强大算力的语言模型,具有深度学习特质,葆有出色的语言理解和文本对话生成能力,ChatGPT 的语言理解和生成水平的便捷性能够更快更好地回答http://fzzfyjy.cupl.edu.cn/info/1035/15631.htm
8.中金:ChatGPT启新章,AIGC引领云硬件新时代一般服务器/存储器对于PCB的需求普通的多层板为主,随着ChatGPT大模型这类需要海量数据应用的发展,对算力的要求越来越高,对于大容量、高速、高性能的云计算服务器的需求将不断增长,对PCB的设计要求也将不断升级,提升对于高层数、大尺寸、高速材料等的应用。https://wallstreetcn.com/articles/3682574
9.一文读懂ChatGPT,你想知道的都在这里目前,百度宣布进军AIGC赛道,依托数据、算法和算力,全力打造AIGC产品“文心一言”,有利于为我国舆论安全保驾护航。 ? 完善监管机制,加强AI层面立法 首先,事前建立市场准入标准,由网信办牵头,成立人工智能风险评估委员会,综合评估ChatGPT进入市场后可能引发的风险,要求人工智能公司严格遵守各项运营要求。其次,事中应当https://weibo.com/ttarticle/p/show?id=2309404906876851847170
10.实测:ChatGPT的翻译能力怎么样?雷峰网另外,研究人员在Tp2中增加了一个额外命令,要求ChatGPT不要在翻译的句子上加双引号(在原始格式中经常发生)。尽管如此,ChatGPT依旧不稳定,如会将同一批次的多行句子翻译成单行。 图2:候选翻译提示 研究人员将三种不同的候选prompt与Flores-101的测试集在汉译英任务中的表现进行比较,图3显示了ChatGPT和其他三个翻译https://m.leiphone.com/category/ai/GftWDAq4bFtBelft.html
11.ChatGPT第二、遏制用户滥用政策。不允许文本要求生成暴力、成人或政治内容等视频。如果我们的过滤器发现可能违反我们政策的文本提示和图片上传,ChatGPT就会采用自动化和人工监控系统予以拒绝。 OpenAI认为:负责任的开发和安全监管是人工智能的重要组成部分,让用户对ChatGPT安全系统有信心。 https://www.jianshu.com/p/805abc3dcaae