AI服务器行业:驱动因素市场空间相关机遇产业链深度梳理

1.算力需求激增,推动算力基础设施迎增长新周期

2.单个大语言模型训练驱动AI训练服务器市场

3.ChatGPT驱动AI推理服务器市场需求

AI推理服务器方面,单个AI应用如ChatGPT在初期便可带动推理服务器需求达45亿美元。据Similarweb数据,ChatGPT官网在2023年1月27日-2月3日一周内吸引的每日访客数量高达2500万,假设平均针对50字的提问生成400字的响应(即450字,对应600token),根据OneFlow的数据和《ScalingLawsforNeuralLanguageModels》,在推理过程中每个token的计算成本约为2NFlops,其中N为模型参数数量,则在ChatGPT4一万亿参数中每个token需算力2万亿Flops,且据Chowdhery等测算GPT-3训练期间FLOPS利用率为21.3%,则可得每人每次提问需算力5.6PetaFlops(2万亿Flops*600token/21.3%)。

假设每日2500万人访问量,每人提问10次,且一天内平均分摊,则每秒算力需求约16302PetaFlops,假定访问峰值是一天均值的5倍,则每秒算力需求约81508PetaFlops。目前AI推理所使用的主流GPU是英伟达T4,一块英伟达T4GPU可提供的混合精度算力为65TFlops,则需约125万个T4GPU方可满足单日对ChatGPT的访问,对应15.67万台8*T4的服务器,一台8*T4服务器的价格约29000美元,则仅单个如ChatGPT的AI应用在初期便带来推理服务器需求约45亿美元。

1.AI服务器

服务器随场景需求经历通用服务器-云服务器-边缘服务器-AI服务器四种模式,AI服务器采用GPU增强其并行计算能力。CPU+GPU是AI服务器的核心部件。

2.分类

(1)按应用场景可分为训练和推理,训练对算力要求更高

AI服务器按应用场景可分为训练和推理两种,2021年中国AI服务器推理负载占比约55.5%,未来有望持续提高;训练对芯片算力要求更高,推理对算力的要求偏低;

(2)按芯片类型可分为GPU、FPGA、ASIC等

AI服务器采用异构形式,按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合;目前GPU依然是实现数据中心加速的首选,其他非GPU芯片应用逐渐增多,IDC预计到2025年其他非GPU芯片占比超过20%;一般来说,ASIC的性能最好,但是可编程性和灵活性较弱;在训练或者通用情况下,GPU则是更好的选择。

3.成本

(1)GPU+CPU+存储三大件占比80%

AI服务器价值量的构成核心在于昂贵的GPU加速卡、CPU和存储配置,同时对于PCB、电源管理、信号传输等多方面均有更高需求,亦带来大幅的价值量提升。根据浪潮服务器和浪潮信息官网信息,对于NF5468A5GPU服务器,可以搭载至多2颗CPU和8颗GPU加速卡,以京东报价来看,AMD7543CPU单价约2.5万元,英伟达A10040GBGPU单价约6万元,根据ZOL中关村在线报价,32GBDDR4RDIMM售价约为2000元以上,同时结合三星官网信息,1.92TBNVMe硬盘售价预计超过3000元,考虑到通常会配备2颗CPU以及数颗GPU,因此在CPU和GPU层面就会占据极大价值量。

根据爱采购官网信息,1台配置2颗英伟达40GBA100GPU和2颗AMD7502CPU(单价约2万元)的服务器售价约为30万元,其中GPU和CPU的合计价值量约占据53%(2*6万元+2*2万元=16万元),若考虑内存和硬盘价值量占比较大,以及实际情况下可能单机会尽量满配GPU数量,预计高性能AI服务器GPU+CPU+存储三大件占比有望超过80%。

(2)FPGA在大模型领域有潜在提升空间

GPU在深度学习算法模型训练上非常高效,但在推理时对于小批量数据,并行计算的优势不能发挥出来。而FPGA同时拥有流水线并行和数据并行,因此处理任务时候延迟更低,同时FPGA是可编程芯片,算法烧录更加灵活,根据浪潮AIHPC公众号预测,未来至少95%的机器学习计算都是用于推断,只有不到5%是用于模型训练,而FPGA正是强在推断,大幅提升推断效率的同时,还能最小限度损失精确性,这正是FPGA的强项。

1.海内外服务器市场持续增长,国内市场一超多强

全球方面,根据IDC数据,2022年全球服务器出货量突破1,516万台,同比增长12%,产值达1,215.8亿美元,预计未来四年内仍保持增长,2026年全球服务器出货量达1885.1万台,2022-2026年全球服务器出货量CAGR为5.59%,产值有望达到1664.95亿美元,2022-2026产值CAGR为8.18%。

中国方面,据智研咨询数据,2022年中国服务器出货量为434.1万台,同比增长5.36%。据IDC,2022年中国服务器市场规模为273.4亿美元(1888.37亿人民币),同比增长9.1%。据中商情报网预测,2023年中国服务器出货量有望达到449万台,同比增长3.43%;中国服务器市场规模有望达到308亿美元,同比增长12.66%。从市场份额(按营业收入统计)上看,据IDC,浪潮、新华三、超聚变、宁畅、中兴位居2022年中国服务器市场前五,市场份额占比分别为28.1%/17.2%/10.1%/6.2%/5.3%,同比变动-2.7pct/-0.3pct/+6.9pct/0pct/+2.2pct。

2.AI服务器有望迎高速增长,海内外云巨头加大AI服务器采购

ChatGPT、文心一言等AIGC大模型带来计算资源需求井喷,催生AI服务器需求增长,叠加配置升级带动单台AI服务器价值较通用型成倍增长,量价齐升。据TrendForce预测,2023年全球AI服务器出货量同比增速可达8%,2022~2026年复合增长率将达10.8%。

据IDC数据,2021年全球AI服务器市场规模156亿美元,预计到2025年全球AI服务器市场将达到318亿美元,21-25CAGR为19.5%;2021年中国AI服务器市场规模达350亿元,预计2025年中国AI服务器市场规模将达到702亿元,21-25CAGR为19.0%。从AI服务器的采购量来看,据TrendForce统计,2022年AI服务器采购量中,北美四大云端供应商Microsoft、Google、Meta、AWS合计占比约66%,而中国近年来AI建设浪潮持续升温,字节跳动年采购占比达6.2%,腾讯、阿里巴巴、百度紧接其后,分别约为2.3%、1.5%与1.5%。海外云巨头对AI服务器的需求更大,但随着国内AI大模型的开发及应用拉动更多AI服务器需求,中国AI服务器市场空间有望进一步提升。

3.英伟达:全球GPU龙头,产品需求量价齐升

全球GPU龙头开拓AI市场,助力服务器核心算力硬件性能提升。英伟达作为一家以GPU为主营业务的半导体设计公司,在AI行业发展初期就前瞻布局。2022年公司数据中心产品营业收入150.05亿美元,同比增长41.38%,2020-2022CAGR高达49.70%,增势迅猛。2023年3月22日,公司发布针对AI基础架构的最新AI服务器系统NVIDIADGXH100以及NVLINK架构,为AI训练与推理提供高速算力。

ChatGPT发布引爆市场、GoogleAI对话模型Bard开放公测、百度发布“文心一言”大模型等一系列互联网巨头纷纷发力AI领域,催生AI服务器需求增长。据TrendForce预测,2023年AI服务器出货量同比增速可达8%,2022~2026年CAGR将达10.8%。公司有望受益于AIGC带来的核心算力硬件性能需求大幅提升,AI服务器系统业务未来将成为公司数据中心产品营业收入的新增长点。

GPU性能领先全球,H100拓展市场领先地位。公司深耕GPU芯片多年,据英伟达在IEEE会议公布数据显示,从2012年的K20X到2020年的A100,GPU的推理性能提高了317倍,远超摩尔定律的发展速度。

A100作为当前AI服务器GPU中的高端产品,性能相比上一代VoltaGPU提升20倍,其AI推理性能是CPU的249倍,打破16项性能AI记录,在AI、数据分析、高性能计算上应用广泛,目前仍是AI领域所用的主力GPU,被AWS、微软Azure和百度云等全球领先的云提供商以及Dell、HPE、浪潮和超微等数十家主要服务器制造商广泛采用。公司发布的新一代服务器GPU产品H100,其AI训练速度达到A100的9倍,大语言模型的推理速度达到A100的30倍,高性能计算性能相比A100提升7倍,性价比是A100的2倍。戴尔、浪潮、新华三、源讯等全球领先的服务器厂商均计划推出采用H100的服务器,未来H100有望被服务器厂商和云服务商广泛采用,推动公司业绩新一轮成长。

算力需求迅猛增长,服务器GPU业务有望迎来量价齐升。AIGC产品与应用的逐步落地催生了巨大的算力需求,据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3-4个月提升一倍,每年头部训练模型所需算力增长幅度高达10倍。作为AI时代的算力核心,GPU需求旺盛。同时,芯片性能的大幅提升带动GPU价格不断增长,英伟达V100/A100/H100三代GPU价格分别为10000/15000/36500美元。作为服务器GPU领导者,英伟达将直接受益于AIGC大热带来的核心算力硬件性能需求提升,服务器GPU业务有望迎来量价齐升。

4.华为:服务器产业深耕多年,打造“鲲鹏+昇腾”双引擎战略布局

扩展服务器产业多年,打造“鲲鹏+昇腾”双引擎战略布局。华为从2008年开始对外提供服务器产品,目前形成了通用计算(鲲鹏)和AI计算(昇腾)两大业务布局。据IDC数据,华为2021年H1在中国服务器市场的份额为11.2%。据counterpoint数据,2021年全年华为服务器业务收入43.43亿美元,全球市场份额占比4.5%。由于美国将华为列入实体清单,限制x86架构的芯片供给,华为在2021年12月出售了x86服务器业务。原本主营x86服务器业务的子公司超聚变分离后仍然稳定发展,2022年国内市占率位列第三,达到10.1%。目前华为致力于打造以“Arm架构的鲲鹏+达芬奇架构的昇腾”为根基的双引擎战略布局,借助自研芯片优势,持续拓展服务器业务布局。

坚持计算产业战略,积极布局AI服务器领域。华为创新处理器架构“达芬奇”以匹配算力的增速,推出全场景处理器族,其中面向通用计算的鲲鹏系列与面向AI计算的昇腾系列主要应用于服务器产品,已服务政府、金融、运营商、电力、交通、医疗、教育、电力、油气、制造等领域,为全球合作伙伴开发服务器应用及解决方案。

其中,采用鲲鹏920/916处理器的TaiShan服务器包括2280E边缘型、1280高密型、2280均衡型、2480高性能型、5280存储型和X6000高密型等产品,适配高性能计算、数据库、云计算等各种应用场景,现已应用于中科大千万亿次“瀚海20超级计算系统”。最高配置2480高端服务器基于鲲鹏920处理器,最高提供256核、3.0GHz主频的计算能力和最多25个SSD硬盘。

此外,昇腾系列AI服务器包括Atlas800推理服务器与Atlas800训练服务器,广泛应用于中心侧AI推理、深度学习模型开发和训练场景。Atlas800推理服务器搭载64核架构的鲲鹏920处理器,支持8张Atlas300I推理卡,整机可提供640路高清视频实时分析(1080P25FPS),Atlas800训练服务器达到4U高度,最高可提供2.24PFLOPSFP16的算力,为AI推理、深度学习模型开发和训练提供超强算力支持。

1.国内外厂商布局大模型,千亿级参数量推动算力需求增长

参数量与算力需求呈正比,据ARKInvest预测,GPT-4参数量最高达15000亿个,则GPT-4算力需求最高可达31271PFlop/s-day;与此同时,国内外厂商加速布局大模型,其参数量均达到千亿级别,同步带动算力需求爆发式增长。

2.随着训练需求占比下降,推理需求有望进一步提升

据IDC预测,2023年AI服务器训练需求占比达41.5%,随着大模型的应用,该比例在2025年将降低至39.2%;将GPT-4的推算结果作为训练需求,进一步推算2023/2025年推理需求最高达44081/48502PFlop/s-day。

3.以GPT-4为例,为满足算力需要近千台浪潮NF5688M6服务器

4.全球AI服务器出货量和市场规模保持快速增长

据IDC预测,2023年全球AI服务器市场规模为211亿美元,预计2025年达317.9亿美元,2023-2025年CAGR为22.7%;据TrendForce预测,2026年全球AI服务器出货量将进一步提升,2022-2026年CAGR达到10.8%;

5.中国AI服务器出货量和市场规模保持快速增长

据IDC统计,2021年中国AI服务器市场规模为53.9亿美元,预计2025年达到103.4亿美元,2021-2025年CAGR达17.7%;2021年中国智能算力规模为155.2EFLOPS,预计2025年达922.8EFLOPS,2021-2025年CAGR达56.15%。

服务器产业链的上游主要是零部件供应商,中游是服务器品牌商和OEM/ODM厂商,服务器的下游客户是互联网和云服务厂商、运营商等客户群体。

1.上游

服务器上游:主要包括芯片、PCB、连接器、线缆、电源和各类接口等。

2.中游

服务器中游:主要包括服务器品牌上和OEM/ODM厂商,未来OEM/ODM或将逐步向JDM模式转变。

传统服务器行业的供应模式是OEM/ODM到品牌商再到客户,未来随着终端客户对于服务器的定制化需求逐步增强,OEM/ODM厂商或将逐步加强与终端客户的直接联系以满足终端客户的定制化需求,或将逐步向JDM转变。

3.下游

服务器下游:主要是采购服务器的各类客户群体。此处列举的服务器下游终端客户群体主要是B端和G端客户,主要包括互联网厂商、云服务商、运营商、政府机构、金融机构等。

1.美国限制向中国出口先进GPU,可购买削弱带宽的A800

英伟达推出的三代GPU芯片V100、A100和H100可用于AI模型训练和推理,最新一代的H100较A100计算速度快约3倍(67/19.5);2022年8月,美国要求英伟达停止向中国企业出售A100和H100两款GPU计算芯片,目前中国企业仅能购买特供的A800芯片,该芯片较A100在互联带宽方面被削弱1/3,成为当前可行的替代方案。暂时未被禁售的V100工艺为12nm,难以满足目前计算需求。

2.国产GPU单卡指标接近英伟达,推理应用更具竞争力

国产算力GPU的主要厂商包括海光信息、寒武纪、平头哥、华为昇腾、天数智芯、燧原科技、摩尔线程、壁仞科技、沐曦等公司,部分产品的单卡指标和参数已经与英伟达产品接近或持平。目前国产算力GPU芯片在推理场景应用较多且具备一定竞争力,如含光800、思元370、MTTS3000等等。

3.国产厂商全球市场份额占比超35%,浪潮信息位列国内外榜首

1.超算中心建设加速,服务器需求进一步提升

(1)超级计算市场未来可期,超算+云计算带来服务器新增长

随着AIGC、云计算技术及应用模式的进一步拓展,超级计算的需求及应用场景持续增长,多地超算中心建设升级项目兴起,助推超级计算市场迅速增长。据华经产业研究院数据,2021年我国超算服务市场规模达196.6亿元,预计2025年可达466亿元,2021-2025年CAGR达24.1%。

同时,得益于超算服务与云服务市场的扩大,我国超算云服务市场迎来快速增长阶段。据华经产业研究院数据,2016-2021年间,市场规模从1.5亿元增长至20.7亿元,CAGR高达69.1%;预计在市场需求的刺激下我国超算云服务市场将继续高增长态势,市场规模有望于2025年达到111.9亿,2021-2025年CAGR为52.4%。未来超级计算中心与云计算、互联网技术融合,从精密研制、信息安全、石油勘探、航空航天和科学计算领域向制药、基因测序、动漫渲染、数字电影、数据挖掘、金融分析及互联网服务等领域拓展应用,超级计算中心在服务器上的大量需求有望成为服务器市场的新增长点。

(2)单台超算中心超级计算机算力可敌200多万台普通计算机,有望推动高端服务器市场提升

构成超算中心的超级计算机每秒运算速度高达10亿亿次,其计算能力相当于200多万台普通计算机,能计算普通计算机和服务器不能完成的大型复杂计算。相比于数据中心分布式运行、以软件实现其扩展的模式,超算中心采用集中式的集群逻辑,耦合度高,单机性能好,其应用主要集中于高性能计算领域,目前主要提供国家高科技领域和尖端技术研究所需的运算速度和存储容量,专用性更高,因此对服务器有更高的要求,随着超级计算中心的不断扩展,高端服务器有望拉动服务器市场进一步增长。

2.云边协同发展,增添服务器需求动能

(1)边缘计算优势显著,云边协同大势所趋,边缘计算将进一步带动服务器需求

相比于云计算的集中部署、距离用户侧较远的特点,边缘计算是一种分布式的基础设施,距离用户侧或数据源更近,能有效解决带宽成本高、时延较长、流量汇集过大等问题,更好支持实时性强和带宽密集型业务。因而,边缘计算适用于局部性、实时和短周期的数据处理与分析,云计算擅长于全局性、非实时、长周期的大数据处理与分析,两者互补、相辅相成。

Gartner预测,2025年将有75%的数据在边缘侧进行处理,企业关键数据有50%以上将在数据中心以外或云以外的地点创建和处理。2023年,将有42.4%的企业采用边缘+核心的组合架构建立和运行数据库,设备架构向“云-边-端”三级架构演进迭代。

由于数据的产生更多来自端侧和边缘,边缘数据中心将会成为理想的承载基础设施去处理更多对时延要求更高的业务,据IDC预测,全球边缘服务器的支出金额占总体服务器比重将从2021年的14.4%增长至2025年的24.9%。根据信通院预测,未来边缘市场规模将超万亿,有望成为与云计算平分秋色的新兴市场,广阔市场空间将带给整个数据中心产业界带来无限的想象空间和崭新的发展机遇,边缘数据中心发展大势所趋。全球企业和服务提供商在边缘解决方案硬件、软件和服务上的支出未来将继续保持高速增长,据IDC数据,全球2023年度边缘计算支出预计将达2080亿美元,相比2022年增长13.1%,这一增速将维持至2026年,届时边缘计算支出将达到3170亿美元。

(2)云服务商不断向边缘渗透

依靠云计算技术的先发优势,云巨头公司将云计算技术下沉到边缘侧,大力发展边缘计算。全球方面,亚马逊在2016年就开始将AWS扩展到间歇连接的边缘设备。谷歌在2021年推出分布式云边缘,将谷歌云基础设施扩展到边缘。国内方面,BAT等巨头也紧抓边缘计算市场契机。

阿里云2018年就开始进军边缘计算技术领域,将云计算、人工智能、IoT的优势拓展到边缘计算上,打造云、边、端一体化的协同计算服务,陆续推出了边缘云节点ENS、软硬一体的物联网边缘计算节点,把云端能力下沉到边缘,用云端能力解决本地的问题,降低时延和成本。百度打造了由边缘计算框架和云端管理套件组成的智能边缘,并提供边缘计算服务器和边缘计算节点两类产品。腾讯从设备和平台两方面打造了边缘计算机器ECM和物联网边缘计算平台IECP的边缘计算布局。华为推出智能边缘平台IEF、智能边缘云IEC、智能边缘小站IES、IoT边缘。

(3)除云服务商外,各垂直行业企业也已开始边缘计算领域的布局

边缘计算产业链上的软硬件服务商、服务提供商以及第三方应用和内容提供商等企业也在垂直领域开始边缘计算布局。在民生改善上,供热行业作为保障民生的重要行业还存在管理系统落后、自动化程度低等问题,中环寰慧的智能供热新模式将每个换热站与边缘网关对接,统一数据汇聚,可以将云端经过大数据分析和全网智能调节算法策略,下发到边缘侧,完成边缘设备上的推断和计算,随着使用时长和数据的累计,在深度学习算法的支撑下,整套供热系统的调控会越来越精准。

(4)边缘计算产业链上游是软硬件基础设施提供商,边缘计算产业链协同发展,我国

边缘计算服务器市场21-26CAGR超20%边缘计算产业链上游是软硬件服务商如华为、中兴通讯、浪潮信息、中科曙光、凌华科技等企业,中游是运营商以及服务提供商,下游是第三方应用和内容提供商。此外,还有Avnu联盟等多个产业联盟、中国信通院等核心研究机构和企业。2016年11月30日边缘计算产业联盟(EdgeComputingConsortium,ECC)成立,目的是全面促进产业深度协同,加速边缘计算在各行业的数字化创新和行业应用落地,目前已有超过330个网络联接、数据聚合、芯片、传感、行业应用等多个领域的公司和机构加入。

硬件基础设施提供商主要是提供边缘服务器、边缘网关、智能边缘一体机等,如华为、中兴通讯、浪潮信息、中科曙光、凌华科技等企业,软件基础设施提供商主要提供边缘操作平台、边缘应用软件等,如思科、谷歌等。智能边缘一体机将计算、存储、网络、虚拟化和环境动力等产品有机集成到一个机柜中,在出厂时完成预安装和与连线,只需连接电源即可快速完成初始配置,具有业务远程部署、集中运维、管理简单等特点。边缘网关是部署在垂直行业现场实现网络接入、协议转换、数据采集与分析处理的设备,可在园区物联网和工业物联网等场景进行应用。同时边缘网关在不同场景下有不同形态要求,例如在园区物联网接入中需要具有温度、湿度、烟雾探测等传感器能力,在工业物联网接入中需承担设备信息、告警信息收集和上报的功能。

边缘服务器是边缘计算和边缘数据中心的主要计算载体,有三方面需求。首先,需支持ARM/GPU/NPU等异构计算以满足不同业务应用需求,其次,需拥有统一的运维管理接口、业务自动部署能力和有效可靠的故障处理能力以满足边缘服务器部署运维需求。第三,需拥有较强温度适应能力以匹配较为复杂的环境空间。以目前已建成投入运营的雄安城市计算中心为例,现已由700台服务器搭建成6个边缘计算节点,形成1.4万核算力、27P存储,平均一个边缘计算节点需要117台服务器。随着智慧城市建设与发展对城市数据及时计算的需求增加,将带动边缘计算服务器市场空间的拓展。据IDC预计,2021-2026年中国边缘计算服务器整体市场规模年复合增长率将达到23.1%,高于全球的22.2%。

3.AIGC推动GPU服务器市场持续扩张

随着人工智能技术的快速演进赋能各个行业,支撑创新服务发展,未来基于AIGC带动的云计算需求将会是IaaS领域增长的持续驱动力,各大云计算厂商均着力布局人工智能以把握未来趋势。目前,亚马逊AWS已形成了AI平台、AI服务、AI基础设施的全方位布局,并与英伟达合作,致力于大型机器学习模型训练和生成式AI应用程序构建;微软依托ChatGPT,推出Microsorft365Copilot、NewBing、SecurityCopilot一系列应用;Google研发LaMDA大语言模型,推出AI产品Bard。

未来,计算平台将逐步由通用走向专用,以AI为代表的新兴应用将长期驱动服务器市场的增长,目前的单机或小型服务器可提供的算力难以满足AI产品的需求,传统数据中心使用的CPU也存在Cache占据较大空间、计算能力浪费等问题。GPU服务器的出现突破了传统服务器的效率瓶颈,其具有实时高速的并行计算和浮点计算能力,适用于3D图形应用程序、视频解码、深度学习、科学计算等应用场景,逐渐在人工智能方面取代CPU服务器。为支持ChatGPT的算力需求,微软部署了超过1万张英伟达A100GPU,据Trendforce预测,未来GPT商业化所需的GPU芯片数量超过3万枚,生成式AI的发展将带动GPU需求显著提升。

目前,各巨头正在加大对GPU的投入,2022年12月英特尔重组GPU部门,旨在扩大GPU领域的影响力,在GPU加速计算团队加入了数据中心和AI组;2023年3月21日,英伟达发布ChatGPT专用GPU——H100NVL,一台8卡的H100NVL的速度是目前标配8卡A100服务器的10倍;三星也计划基于AMDRDNA开发GPU,巨头的投入将有力推动GPU服务器市场扩张。

4.服务器品牌与白牌之争白热化,促进服务器市场优胜劣汰

(1)白牌服务器厂商备受青睐加剧市场竞争,市场竞争格局重塑

从标准层面来看,2012年Facebook启动OCP(开放计算项目)项目,旨在改变传统的服务器,打破传统计算组件,使其重构为模块化系统,此后微软、谷歌等云计算厂商纷纷加入OCP联盟。目前国外的OCP联盟与国内BAT引领的ODCC(开放计算中心委员会)联盟都在加快制定标准化服务器的规则,由于云服务提供商大多为技术实力雄厚的互联网巨头,对服务器了解程度较高,云巨头的入局令白牌服务器的影响与日俱增。从技术层面来看,虚拟化和开源软件的迅猛发展打破了过去软硬一体的局面。

IaaS厂商让算力从物理实体中解放出来,用户可以通过云平台和第三方开源程序来运行和管理自己的后台服务,进一步促进软件和硬件的分裂。从需求层面来看,云计算数据中心的建设是近年来全球服务器增长的主要驱动力,云计算弱化了对单台服务器性能指标的要求,拥有服务器设计能力的互联网巨头更倾向于寻求ODM厂商直接生产服务器以节省成本,白牌服务器凭借低廉的价格备受云巨头青睐。

(2)白牌与品牌厂商各有其长,适应下游需求者为王

白牌服务器ODM厂商与传统品牌服务器厂商的区别在于,前者聚焦生产制造,后者聚焦于产品设计。

白牌和品牌服务器厂商由于其固有的优势领域不同,两者均都有其业务边界。品牌厂商积累了大量技术专利和架构设计经验,在产品性能、稳定性以及客户响应速度方面具备优势;而白牌服务器厂商在成本控制能力、大规模生产制造能力方面更略胜一筹。因此无论是品牌厂商还是ODM厂商,只有不断适应下游客户需求,才能获得长期持续的发展动能,在AIGC推动芯片及服务器快速迭代发展的环境下,快速响应能力、技术跟进能力、成本控制能力等考验白牌与品牌厂商优胜劣汰,竞争或进一步白热化。

5.提升芯片配置或成服务器厂商制胜关键

IDC认为,中期来看X86架构仍然会是主流的服务器市场,未来将会形成以X86为核心多种架构并存的丰富算力市场。另外,随着互联网、云服务、电信、银行等各行业超大规模客户不断扩张和升级扩容对于服务器的强劲需求,以硬件为中心的集成硬件与软件支持多样化工作负载的解决方案将成为服务器厂商制胜未来的关键。当前服务器产业正往技术多样化、服务定制化、软件定义、异构计算与边缘计算方向发展。

THE END
1.ChatGPT与GPT3的区别与优势gpt3chatgpt当前,大模型的研究处于快速迭代和发展之中,不仅在学术界,在工业界也得到了广泛应用。GPT-3和ChatGPT是这一趋势下的重要里程碑,展示了模型参数量与任务表现之间的紧密关系。 1.3 研究意义 深入理解GPT-3与ChatGPT的区别及其优势对于推进自然语言处理技术的发展具有重要意义。这些模型的出现不仅提升了现有任务的解决效率https://blog.csdn.net/universsky2015/article/details/140028578
2.ChatGPT技术原理ChatGPT是由GPTChatGPT技术原理 ChatGPT 是由 GPT-3 迭代来的,原有的 GPT-3 可能难以从文本中学会一些,这就导致了 GPT-3 这样的语言模型,。Cha 来源于CSDN博主 Runjavagohttp://t.cn/A6OjShjz 的博客http://t.cn/A6OjShjhhttps://weibo.com/1764241425/Nkh1r5viV
3.一招鉴别真假ChatGPT,简述ChatGPTGPTGPT2和GPT3GPT-3是一种自然语言生成模型,它是目前规模最大的预训练模型之一,可以生成高质量的自然语言文本,包括文章、诗歌、对话等。GPT-3的模型规模比ChatGPT大得多,拥有13亿甚至更多的参数,因此它的生成质量和多样性比ChatGPT更高。GPT-3还支持一些其他的自然语言任务,例如翻译、问答、语义搜索等。 http://www.360doc.com/content/23/0319/10/26635931_1072648229.shtml
4.chatgpt接口请求参数详解GPTAPI和ChatGPTAPI(即GPTGPT-3 API:必选参数为model,prompt可选(参见documentation) ChatGPT API(即GPT-3.5 API):所需的参数是model和messages(参见documentation) 在使用ChatGPT API(即GPT-3.5 API)时可以看到: prompt参数甚至不是一个有效的参数,因为它被messages参数替换。 https://juejin.cn/post/7249397451054940197
5.解析ChatGPT背后的技术演进GPT-1、GPT-2和GPT-3的训练数据和参数量级对比 3.4 ChatGPT OpenAI公司在GPT-3与ChatGPT之间发布了多个迭代版本,其中包括:2021年7月推出了Codex系列;2022年1月,引入RLHF(基于人工反馈的强化学习)得到了InstructGPT;2022下半年,推出了融合Codex和InstructGPT的ChatGPT,使用了基于人类反馈的强化学习的版本指令微调模型https://www.51cto.com/article/768469.html
6.ChatGPT原理理解和结构解读(2)加载预训练模型:将预训练的ChatGPT模型加载到内存中,并根据任务需求调整模型的超参数。 (3)设置微调模型:根据具体任务,对预训练模型进行微调,并设置成本函数或风险函数。 (4)训练模型:使用训练集对微调模型进行训练,并根据验证集的表现调整模型参数。 https://www.jianshu.com/p/0628b1bd2c48
7.一文读懂ChatGPT的前世今生行业动态新闻中心#8 GPT-3 2020年5月,OpenAI发表了一篇论文:Language Models are Few-Shot Learners (语言模型是小样本学习者)。 31位作者、75页、320万token、1750亿参数、数据集45TB,训练花了3640pfs-day,训练一次的费用保守估计是460万美元,总训练成本估计达到了1200 万美元。暴力出奇迹。此时微软已经投资OpenAI(2019年投了10https://www.ulucu.com/news/industry/what-is-chatgpt
8.ChatGPTNextWebPro:基于chatgptnext1.Midjourney,该功能基于ChatGPT-Midjourney,使用antd进行了完全的重构,界面更加合理,参数更加全面。 2.Stable-Diffussion,支持lora模型,文生图、图生图、后期处理、图片信息,近乎完整的参数设置,以及图片完成后的功能按钮。 3.Dall-E-3,兼容dall-e-2,需要配置文件上传和存储功能,因为openai返回的链接有效期很短,过https://gitee.com/vual/ChatGPT-Next-Web-Pro
9.chatgpt本地部署最低配置本地部署ChatGPT(Chat Generative Pre-trained Transformer)是指将ChatGPT模型部署到本地计算机上,使得用户可以在本地使用ChatGPT进行对话生成。本地部署具有一些优势,例如可以减少网络延迟、保护用户隐私,同时也可以在离线环境中使用。由于ChatGPT模型具有大量的参数和计算要求,合适的电脑配置是必要的。 http://chatgpt.cmpy.cn/article/2351568.html
10.GitHubademzhang/ChatGPTNextWebPro:基于chatgptnext1.Midjourney,该功能基于ChatGPT-Midjourney,使用antd进行了完全的重构,界面更加合理,参数更加全面。 2.Stable-Diffussion,支持lora模型,文生图、图生图、后期处理、图片信息,近乎完整的参数设置,以及图片完成后的功能按钮。 3.Dall-E-3,兼容dall-e-2,需要配置文件上传和存储功能,因为openai返回的链接有效期很短,过https://github.com/ademzhang/ChatGPT-Next-Web-Pro
11.是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现搞清楚这些问题其实非常重要,短期的意义是,多大的模型规模是合适的?根据Chinchilla的论文,你可以对比在GPT-3的1750亿参数中,可能是有不少冗余的,如果更小的模型也可以出现能力涌现,这也许能削减训练成本。 长期的意义在于,AI目前还是在线上,但迟早会与物理世界连接,你可以想象一个基于GPT-10的ChatGPT与波士顿动力或者https://36kr.com/p/2210585582301824
12.如何免费使用GPT4或ChatGPT4(2)进入GPT-4插件页面,点击Click to Create an Instance创建实例。 (3)按需填充相关参数配置,貌似使用默认的OpenAI的key无法使用,可能需要填写自己的key。完成参数填写点击Create即可使用ChatGPT聊天。 5. 在nat.dev上免费使用ChatGPT-4 nat.dev支持邮箱注册或者使用Google账号登录。曾经免费的nat.dev,现在也扛不住https://www.wbolt.com/how-to-use-gpt-4-free.html
13.ChatGPT兴起,创成式AI能否重塑工具软件底层逻辑?在ChatGPT推出之后,微软计划对OpenAI追加100亿美元投资并在旗下搜索、办公软件中探索融合应用场景。由于ChatGPT显现出的巨大应用潜力与可能性,全球广大应用厂商也均开始积极尝试接入OpenAI的技术接口,以期AI与其现有产品能够产生新的化学反应。国内市场亦快速跟进,百度宣布旗下对标产品文心一言将于3月完成内测、面向公众https://news.futunn.com/post/24629911?futusource=news_newspage_recommend
14.快科技资讯2023年02月14日Blog版资讯中心同时,在大模型的框架下,ChatGPT所使用的GPT模型,每一代参数量均高速扩张,预训练的数据量需求和成本亦快速提升。 国盛证券计算机分析师刘高畅、杨然在发表于2月12日的报告《Chatgpt 需要多少算力》中估算,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。 https://news.mydrivers.com/blog/20230214.htm
15.chatgpt说它有上千亿的参数,是什么意思?简介:chatgpt说它有上千亿的参数,是什么意思? 最近在捣鼓深度学习,今天突然开窍,对于大模型、上千亿参数的理解顿悟了,所以才有了这篇文章。 一个通俗易懂的模型举例 先用一个最简单的例子来说明,例如身高和体重之间是有一定对应的关系的。 如果我们有了非常多身高与体重对应关系的数据,我们就可以运用这些数据得到https://developer.aliyun.com/article/1228733
16.人人看得懂的ChatGPT技术原理解析这是对支撑ChatGPT工作的机器学习模型的一段简略的介绍:以大型语言模型为基础,然后深入研究使GPT-3能够被训练的自注意力机制,再从人类的反馈中进行强化学习,这就是使ChatGPT与众不同的新技术。 大型语言模型 Large Language Models ChatGPT是一种机器学习自然语言处理模型的扩展,称为大语言模型(LLMs)。LLMs能够读https://blog.itpub.net/70018536/viewspace-2937077/