目前,仍然有大量的低密度机房(4kW/R)存在,且其主要采用空气冷却,如果全部改造为液体冷却,一方面经济成本巨大,另一方面也造成大量的资源浪费;另外,随着高密度机柜需求越来越多,空气冷却确实已达到其供冷极限,急需高效的供冷解决方案,液体冷却确实是一个合适的选择。
我们需要液冷,但是它不能代替风冷
Weneedliquidcooling,butitwon’treplaceair
液体冷却被认为正在推动数据中心热管理领域的一场革命。普遍认为传统的空气冷却正在逐步退出。它也必须退出历史舞台,从而为水冷却、电介质冷却和其他液体冷却的服务器的出现让路。而在以往,鲜少有变革能如此干脆利落。
Liquidcoolingissupposedtobedrivingarevolutioninheatmanagementwithindatacenters.Theoldway,aircooling,isonthewayout,wearetold.Itmustgo,tomakewayforaworldwhereserversarecooledwithwater,dielectrics,andotherfluids.Inreallife,revolutionsarerarelysoneatandtidy.
毫无疑问,机柜内服务器的密度已经到了无法再用空气高效冷却的临界点。液体冷却有很多优势,包括效率的提升,消除灰尘和污垢方面的改善,运行更安静,同时还可以实现余热回收。
Thereisnodoubtthatthedensitiesofserversinracksarereachingthepointwheresomeofthemcannolongerbecooledefficientlywithair.Andliquidcoolinghasavastsetofbenefits,includingincreasedefficiency,improvedexclusionofdustanddirt,andquieteroperation-anditdeliverswasteheatinaformwhereitcanbeusedelsewhere.
但是,空气冷却供应商储备的订单并没有减少的迹象,同时,新的数据中心仍在围绕冷水机组、暖通空调设备和其他空气冷却设备进行设计。
Butstill,aircoolingvendorshaveabacklogofordersthatshownosignofdiminishing,andnewdatacentersarestillbeingdesignedaroundchillers,HVACs,andotherair-cooledequipment.
我们该如何解释这种现象?现在的空气冷却与未来的液体冷却系统又如何共存?
HowdoweexplainthisAndhowwilltoday’saircooledenvironmentscoexistwithtomorrow’sliquidcooledsystems
“开放计算项目”的液体冷却的负责人,冷却专家顾问RolfBrink说:“空气冷却将会被液体冷却所取代的说法有两点是错误的。空气冷却永远不会消失。服务器都是被空气冷却的说法也不正确。这并不是一场哪种技术最终会胜出的较量。”
Thestorythatairwillgivewaytoliquidcoolingiswrongontwocounts,saysspecialistcoolingconsultantRolfBrink,theOpenComputeProjectleadforliquidcooling:“Aircoolingwillneverdisappear.Anditisalsoincorrecttosaythey'vealwaysbeenaircooled.It'snotabattleaboutwhichtechnologywillbeleftattheendoftheroad.
“YouhavetolookattheITequipmentandseewhatitneeds,”saysBrink.“ITequipmenthasvariousrequirementsforcooling,andthisiswherethepaletteofcoolingtechnologiesthatyoushouldbeconsideringisgreatlyenrichedthesedays.
“今年或者明年,冷板会成为主流”Brink说,“浸没式液冷还需要几年才能成为主流。但并不是所有的IT设备仅使用浸没式、冷板式或风冷即可满足需求。”
“Cold-plateisbecomingmainstreamthisyearornext,”saysBrink.“Immersionisgoingtotakeafewmoreyearsbeforeitbecomesmainstream.ButnotallITequipmentissuitableforimmersionorcoldplateoraircoolingalone.
“这是一种大的思维方式的转变”他说,“我们将看到越来越多的复合型基础设施和设备可以兼容空气冷却和液体冷却。而这正是整个行业需要做好准备的。”
“Thatisthebigparadigmshift,”hesays.“We'regoingtoseemorehybridenvironmentswheretheunderlyinginfrastructureandfacilitiescancatertobothairandliquidcooling.Andthatiswhattheindustryneedstogetpreparedfor.”
“我们正处在这个过渡阶段,既看到了空气冷却需求的增长,也看到了许多新兴的液体冷却需求的出现”StuartLawrence,StreamDataCenters的产品研发和更新副总说,“因此我们发现可配置性是目前最重要的事情。”
“We'reinthistransitionphase,whereweseebothextendeddemandforaircooling,andalotofnewerliquidcoolingrequirementscomingin,”saysStuartLawrence,VPofproductinnovationandsustainabilityatStreamDataCenters.“Sowefindconfigurabilityisthemostimportantthingrightnow.”
作为数据中心运营商,Lawrence必须应对客户(主要是一些一次租用整栋建筑的大型企业)提出的要求:“我们发现一些客户正在尝试用液体直接冷却芯片,有的是单相流体,有的是相变流体,有的是冷板。浸没式液体冷却并不是太多。”
Asadatacenteroperator,Lawrencehastodealwithwhathiscustomers-mostlylargeplayerstakingawholebuildingatatime-arereadyfor:“We'reseeingsomecustomersplayingaroundwithsomeliquidcoolingdirecttochip,eithersinglephasefluids,orphasechangingfluidsorcoldplates.Wearen'tseeingalotofimmersion“
数据中心国际专家培训
运维管理的直接目标是优秀的运维人员而非设备本身;全球权威的AOS运维管理专家课程将带您深刻理解运维管理的本质
正确和系统地了解Tier分级体系会提升数据中心的项目投资回报、减少业务中断风险,ATS课程将全面带您学习Tier知识,帮助您有效提升企业的运营指标和内外部客户的满意度。
点击图片查看课程排期
扫码回复【uptime培训】了解课程详情
空调供应商承认确实需要进行改变。江森自控暖通空调产品业务发展全球总监MukulAnand说“某种程度上,空气冷却确实有其局限性。”
Air-conditioningvendorsadmitthatthingsmustchange.“Atsomepoint,aircoolinghasitslimitations,”saysMukulAnand,globaldirectorofbusinessdevelopmentforappliedHVACproductsatJohnsonControls.
利用空气可以带走的热量是有限的。正如他解释的那样,冷却高电量的芯片需要大量的空气:“风速会变得很高,空间的噪声也很大,服务器风扇能耗也增加,而风扇能耗并不会体现在PUE的计算中。”他发现直接芯片冷却、浸没式和相变冷却的占比在增长,同时注意到在空气冷却系统中也有水环路,正如蒸发系统一样。数据中心正在努力降低用水量,同时也在可能的情况下关掉压缩机,在空间中使用水冷却使得他们的工作更容易。
“There'sonlysomuchamountofheatyoucanremoveusingair.”Asheexplains,ittakesalotofairtocoolahigh-energychip:“Thevelocityofairbecomesveryhigh,noiseinthewhitespacebecomesachallengeandtheserverfanpowerconsumptionincreases-whichdoesnotshowitselfinthePUEcalculation.”Heseesdirect-to-chip,immersion,andtwophasecoolinggrowing,andnotesthatair-cooledsystemsoftenhaveawatercircuit,aswellasusingwaterinevaporativesystems.Datacentersaretryingtominimizewaterconsumptionwhileswitchingoffcompressorswhenpossible,andwatercoolinginsidethewhitespacecanmaketheirjobeasier.
“我们已经看到了市政当局和民间团体在用水冷却数据中心方面明显的转变”Anand说,“一种从直接蒸发冷却技术转向空气冷却(风冷)冷水机组、水冷冷水机组和干冷却器的转变。”随着液体进入空间,他说“我们必须确保我们已经完全了解了所使用的的液体(水、乙二醇等),同时确保我们在液体冷却服务器技术上达成一致,并尽可能经济化使用。”
“We'veseenadistinctshiftofmunicipalitiesandcommunitiesawayfromusingwaterfordatacentercooling,”saysAnand.“Ashiftfromdirectevaporativecoolingtechnologiestowardseitheraircooledchillersorwatercooledchillersanddrycoolers.”Asliquidcoolingcomesinsidethewhitespace,hesays:“Wehavetomakesurewecompletelyunderstandthefluidsthatwillbeused(water,glycol,etc.)andmakesurethatweconvergeonanagreedliquidcooledservertechnology,anduseeconomizationasmuchaspossible,”hesays.
他说“其中一个直接的结果是冷却液体的温度可以提高至IT设备允许的最大值。30℃是一个中位数。但是已经比目前数据中心所用的空气冷却系统中的冷冻水温度高。”空气冷却系统必须适应这种变化,“我们必须推出和使用可以在30℃冷却液下稳定和高效运行的设备。”
“OneofthedirectconsequencesistousethechilledfluidtemperatureashighastheITequipmentwillallow.30°C(86°F)isbeinglookedatasamediannumber.Thatiscertainlyhigherthanthechilledwaterfluidusedindatacenteraircoolingsystemstoday.”Aircoolingsystemswillhavetoadapt,hesays:“Wemustlaunchanduseproductsthatareascomfortableandefficientprovidingchilledfluidat30°C.”
Withthattemperatureintheircoolingsystems,datacenterscanspendmoretimeonfreecoolingusingoutsideair.“Thatallowsforawholelotofhoursinthefreecoolingmethodwherethecompressorsdonotconsumeanysignificantamountofpower.InplaceslikeLoudounCounty,Virginia,andinSiliconValley,we'reusingasmucheconomizationaspossible.”
世界上现存的数据中心中,10%的机柜都可以转换为液体冷却。“液体冷却可以冷却90%的空气冷却服务器,因此数据中心可以逐步地转变为越来越多地利用液体冷却。”
Inthisworld,10percentoftheracksinadatacentercanmovetoliquid.“Youhaveacoolingarchitecturethatcancool90percentaircooledservers,andgraduallyconvertthisdatacentertomoreandmoreliquidcooled.”
Inabest-casescenario,manyoftheliquidcoolingscenariosdefinedbyASHRAErarelyneedchillersandmechanicalcooling,andthosechillerswillbecomeabackupsystemforemergencies,saysAnand:“Itisforthosewarmafternoons.Youmusthaveageneratorforthetimeswhenyoudon'thavepower.Youmusthavechillersforthefewhoursinayearthatthatyoucannotgeteconomizationtodothecoolingjobforyou.”
Thosechillerscouldstillbechallenged,hesays,becauseaswellasrunningdenserwhitespace,“ownersandoperatorsareleaningtowardsmulti-storydatacenters.”Thesechillerswillneedtobebuiltwithagreaterconcernforthecarbonembodied,bothphysicallyandintheirsupplychain:“Ifyou'reusinglessmetalandlighterpiecesofequipment,thecarbongeneratedthroughthefabricationandshippingprocessesislower.”Chillersareplacedontheroofofthebuilding,andthismeanstheyarepackedtogethertighter,causinga“heatisland”problem:“Whencondensingunitsorchillerswithcondensersarespreadfarapartonaroof,oneisnotinfluencedbytheother.
当32或64台冷水机组密集布置于屋顶时,一台的排风会进入另一台的冷凝器,对其效率和制冷量都会有不利的影响。”
Whenyouhave32or64chillersclosetogetheronarooftopspace,thedischargeairfromonegoesintothecondenserofthenextone,adverselyimpactingitsefficiencyandcapacity.”
回到自然空间内,Lawrence看到建筑中很多液体冷却设备只是简单地扩展了空气冷却:“这些设备是将液体输配至芯片,但是只是到了背板换热器或侧板换热器。”
Backinsidethewhitespace,Lawrenceseesalotofliquidcoolingimplementationsassimplyextendingtheaircoolingprovidedinthebuilding:“It'sdirectliquidtochip,buttheliquidgoestoareardoorheatexchangerorasidecarheatexchanger.”
像Iceotope公司生产的精密空调,其液体可以输配至需要冷却的特定部件,该类型精密空调所服务的服务器仍然安装在常规的机柜内。此类精密空调是直接芯片冷却或板冷与GRC公司和Asperitas公司在销售的浸没液冷设备的一种中间技术。
注:GreenRevolutionCooling(GRC):GRC致力于提供高效的数据中心液冷解决方案。他们的技术通常涉及将服务器浸泡在非导电液体中,以有效地冷却硬件并提高数据中心的能效。
AsperitasB.V.:Asperitas专注于开发创新的液冷技术,以提高数据中心的能效。他们的液体冷却技术,可以在数据中心中实现更高效的散热。
PrecisioncoolingfromcompanieslikeIceotope,whereserversremaininregularracks,andliquidgetstothespecificpartswhichneedcoolingareamid-pointbetweendirect-to-chiporcoldplate,andthemoreextremeideaoftotalimmersionintankssoldbythelikesofGRCandAsperitas.
直接芯片冷却和精密液体冷却设备均可以安装在空气冷却的环境内,Lawrence说“它们通过在空气冷却的数据中心内采用空气与液体的换热系统来散热。”
Direct-to-chipandprecisionliquidcoolingproductscanbeinstalledinanaircooledenvironment,saysLawrence:“Theyrejectheatbymeansofanair-to-liquidheatexchangesystemwithinanaircooleddatacenter.”
这可能会让液体冷却变革达不到预期,但这是有原因的,Lawrence说“直接液体冷却的很多配套设施并不成熟。”
Thatmaybedisappointingtoliquidcoolingrevolutionaries,butthere’sareason,saysLawrence:“Mostcolocationfacilitiesaren'treallyreadytogodirectliquid.”
他表示液体冷却可以作为一种必要补充,他说“我认为当我们利用4个10kW机架位置升电到40KW机架时,液体冷却可作为空气冷却的补充。”这些高密机柜需要设置额外的换热器或附属设备。
Heseesliquidcoolingasadditive,whereitisrequired:“Ithinkwewillgetthisextensionofaircoolingwheretheywilltake10kWracksandmakefourrackpositionsinto40kWracks.”Thosehigh-densityrackshaveanextraheatexchangeror“sidecar.”
“过去十年中,我部署的大部分产品采用空气冷却,其内有液体冷却盘管,”IBM可持续发展和数据中心创新领域负责人DustinDemetriou说“2016年的时候,我们在一家金融服务公司做这样的部署工作,因为他们基本上都采用直膨式冷却系统,没有冷冻水,但是他们又需要高功率的机柜。”
“Inthelast10years,themajorityoftheproductsthatI'vedeployedareaircooledwithaninternalliquidcoolingloop,”saysDustinDemetriou,IBMSystemsleaderforsustainabilityanddatacenterinnovation.“Asfarbackas2016weweredoingthisinafinancialservicescompanybecausetheyhadbasicallyDXchillersystemswithnochilledwater,buttheyneededahighpowerrack.”
“直接芯片冷却最大的优势就是使用与空气冷却服务器相同的IT架构和同样的机柜尺寸,”Anand说,“冷却分配单元可以布置在白空间内,有时也可以布置在机柜内。使用这项技术,可以相对快速地将至少一部分数据中心改造为高负载机房。”
“Thegreatpartaboutdirect-tochipliquidcoolingisthatitusesthesameITarchitectureandthesamerackformfactorasair-cooledservers,”saysAnand.“Thecoolingdistributionunitscanbeinthewhitespace,orsometimesintherackthemselves.Usingthistechnology,transitioningatleastaportionofthedatacenterfortheintensecomputeloadcanbedonerelativelyquickly.
Anand说“当采用浸没式冷却箱时,可能会出现一些分歧。将浸没式冷却箱的热量排到空气冷却系统时需要开启压缩机,或者对浸没式冷却系统进行改造。”
Whenthingsmovetoimmersioncoolingtanks,theremaybeadivision.Expellingtheheatfromanimmersiontankintoanair-cooledsystemmightrequirethecompressorstobeturnedon,orchangestotheimmersionsystem,saysAnand.
他解释说“浸没式冷却箱中服务器消耗的电量转化为热量,这些热量必须排掉。在浸没式冷却箱内可以使用温度更高的液体来排掉服务器的热量。那么需要开启压缩机制取的温度较低的液体可能就不需要了。”
Heexplains:“Thepowerthat'sconsumedbytheserversintheimmersiontubgetsconvertedtoheatandthatheathastoberemoved.Inabath,wecanprobablyremovethatheatusingwarmertemperaturefluid.Andthelowertemperaturesthatmandatetheoperationofacompressorareprobablynotneeded.”
这种混合方案有一个明显的缺点。液体冷却最值得推崇的好处之一就是可以利用这些被集中的余热制取温度更高的热水。
There’soneobviousdownsidetothishybridapproach.Oneofthemostvauntedbenefitsofliquidcoolingistheprovisionofwasteheatintheconcentratedformofhighertemperaturewater.
如果热量排放到空气冷却系统,那么就像以前一样损失了。将浸没冷却箱运行在较低温度,余热回收的好处也不存在了。这就像是数据中心过度冷却的重现。
Iftheheatgetsrejectedtotheair-coolingsystem,thenitislost,justasbefore.Runningtheliquidbathatthislowertemperatureremovesthebenefitofusefulwasteheat.It’slikeare-runofthebadpracticeofovercooledair-conditioneddatacenters.
“从可持续的角度来看,令人遗憾的是温度没有提升。”Lawrence说“利用这种空气扩展技术,我们并没有真正得到液体冷却的可持续性的好处。”Demetriou指出仍然存在持续的好处“如果从每瓦的性能来看,一个搭载5GHz芯片的服务器,如果完全采用空气冷却,可能只能发挥一半的性能。因此,采用液体冷却只需要更少的服务器就可以完成工作。虽然没有得到液体冷却的全部好处,但是我认为还是得到了很多好处。”
“Thesadpartaboutitfromasustainabilityperspectiveisyouarenotraisinganytemperatures,”saysLawrence.“Sowe'renotwe'renotgettingtherealsustainabilitybenefitsoutofliquidcoolingbyutilizingthisairextensiontechnology.”Demetrioupointsoutthattherearestillsustainabilitybenefits:“Ifyoulookatitintermsofperformanceperwatt,aproductwith5GHzchips,ifitwasstrictlyaircooled,wouldhaveprobablygivenhalftheperformance.Soyouwouldneedfewerserverstodothework.You'renotgettingallofthebenefitsofliquidbutIthinkyou'regettingalot.”
Demetriou也是ASHRAE9.9技术委员会的成员,该委员会是冷却指南和标准的主要制定者。“这个领域我们研究了很久,因为这既不是完全液体冷却也不是完全空气冷却。还有很多中间过程。”
DemetrioualsositsontheASHRAE9.9technicalcommittee,akeydeveloperofcoolingguidelinesandstandards:“Thisisanareawespendalotoftimeon,becauseit'snotallliquidorallair.Thereareintermediatesteps.”
Lawrence说,全液冷却数据中心让人感到复杂的另一个原因就是“输配”,即把足够的电力输送到机柜。
Anotherreasonthatall-liquiddatacentersarecomplextoimagineistheissueof“funneling,”gettingenoughpowerintotheracks,saysLawrence.
“如果一个40MW、400000平方英尺(约37160平方米)的数据中心,由25000平方英尺(约2322.5平方米)的模块组成,我可以用电缆向每个模块输配2.6MW的电力。如果将功率密度加倍,由400000平方英尺(约37160平方米)变为200000平方英尺(约18580平方米),或者100000平方英尺(约9290平方米),那我将面临巨大挑战。”
“IfItakea40MW,400,000sqftdatacenter,madeupof25,000sqftdatahalls,Icangetallmyelectricallineupstodeliver2.6MWtoeachdatahall.IfIstartdoublingthedensitytomakethat400,000sqftdatacenter200,000sqftor100,000sqft,thenIhaveareallybigchallenge.
“我必须将建筑建得又长又窄,才能使所有电缆正常输配电力。如果将建筑建成又小又方的形式,将电力输配至此空间将会是一个很大的问题。电力输配将成为一个很大的挑战。”
“Ihavetomakethatbuildingreallylongandthintoactuallygetalltheelectricallineupstofunnelcorrectly.IfImakeitsmallandsquareIenduphavingreallybigproblemsgettingtheactualelectricalpowerintothespace.Thefunnelingbecomestoomuchofachallenge.
“现在谈论这个问题的人并不是很多,但是我认为这将会成为一个相当大的问题。液体冷却的挑战在于如何设计设备,使其不会遇到电力输配的问题。”在空气冷却设施内布置少量的高密度机柜可以避免这个问题,他说:“如果在空气冷却空间内,就有很多空间可以布置电力输配线缆。”
“Notalotofpeoplearetalkingaboutthatrightnow,butIthinkit'sgoingtobeaprettybigproblem.Thechallengewithliquidcoolingistodesignthefacilityinsuchawaythatyoudon'trunintofunnelingissuestogetthepowerintothespace.”Placingsmallquantitiesofhighdensityrackswithinanair-cooledfacilityactuallyavoidsthisproblem,hesays:“Ifyou'reworkingwithanaircooledspace,you'vegotalotofspacetorouteyourpoweraround.
“当建筑尺寸适用于液体冷却时,你将会遇到各种各样的电力输配问题,有的以前甚至都没有考虑过。”
Whenyoumakethebuildingappropriatelysizedforliquidcooling,yourunintoallsortsofelectricalfunnelingissuesthatyouhadn'thadtoeventhinkaboutbefore.”
空气冷却系统将继续存在一个主要原因是因为系统中的这些设备都非常坚固耐用。放置在数据中心屋顶的冷机系统可以使用20到25年,在此期间,可能会出现四代不同的芯片硬件,每一代对冷却系统都会有不同的需求。
Onemajorreasonwhyair-cooledsystemswillremainisbecauseareveryruggedandenduringpiecesofequipment.Achillersystemplacedontheroofofadatacenterisexpectedtolastfor20to25years,aperiodthatcouldseefourdifferentgenerationsofchiphardware,allwithdifferentcoolingneeds.
江森的Anand说:”如果HVAC架构设计为向液体冷却服务器供冷,则在数据中心生命周期内我们不必改变冷却架构。“
Johnson’sAnandsaysthisispossible:“IfyourHVACarchitectureisdesignedtoprovidecoolingrequiredbyliquidcooledservers,wewillnothavetochangethecoolingarchitecturethroughthelifeofthedatacenter.
“Thetimeperiodfromwhenadatacenterisdesignedinonepartoftheworldtowhenitisbuiltandbroughtonlineinanotherpartoftheworldmightbeseveralyears,”hesays.
“我们不希望等到液体冷却技术在全球范围内得到普及,才在下一个建筑架构设计中将其考虑进去。”
“Wedonotwanttowaitforliquidcoolingtechnologytobeadoptedallacrosstheworldforthenextarchitecturaldesignofthebuildingtomaterializeitinconstruction.”
不只是设备,还有建筑,Lawrence说:“超大规模用户签订15到20年的租约,而我们看到IT设备每4到5年就会更新。而这让我感到困惑。如果你今天签订一份租约,租约期限内将会经历3次IT的更新。你上架的IT设备在这15年期间要么将一直是空气冷却,要么你的机柜或自然空间有其他形式的液体-空气冷却系统。”
It’snotjusttheequipment,it’sthebuilding,saysLawrence:“Hyperscalersaresigningleasesfor15and20years,andweareseeingITrefreshesinthefourtofiveyearrange.Thatbogglesmymind.Ifyou'resigningaleasetoday,it’sgoingtolastthreeITrefreshes.ThatITequipmentthatyou'reputtinginiseithergoingtobeaircooledforthat15yearperiod,oryou'regoingtohavesomeformofliquid-to-airsystemintherackorinthethewhitespace.”
像戴尔和惠普这样的服务器生产商正在生产液体冷却版本的硬件,他们预测在未来10年将会有50%的数据中心采用液体冷却。并不是每一个应用都需要如此高的冷却需求,这意味着仍有50%的服务器可以用空气冷却。
ServermakerslikeDellandHPareproducingliquidcooledversionsoftheirhardware,andarepredictingthatin10years'timedatacenterswillbe50percentliquidcooled.Noteveryapplicationhassuchhighdemandsforcooling,andthismeansthathalftheserverscanstillbeaircooled.
由于这种分歧的存在,情况也会变得复杂。如果业主提供的全部是空气冷却,而客户需要增加液体冷却,Lawrence解释道:“如果你将液体直接输送到机柜的CDU(冷量分配单元)或列间液体冷却设备,情况将会变得复杂。”
Itcanalsogetcomplicatedbecauseofdemarcation.Ifthebuildingownerprovidesoverallcoolingwithair,andtenantswanttoaddliquidcooling,Lawrenceexplains:“ItgetscomplicatedifyoubringliquidstraighttoaCDU(coolingdistributionunit)onrackoranin-rowliquidcooler.”
RolfBrink认为可能需要教育或者监管来推动数据中心更快地实现液体冷却:“新设施还没有针对未来的生态进行设计,这样的情况仍然比较普遍。这是行业的核心问题之一。这正是监管发挥作用的地方,要求至少要在空间中为液体冷却基础设施做好准备。”
RolfBrinkthinksthatitmaytakeeducation,andevenregulation,topushdatacenterdesignsmorequicklytoliquid:“Itstillhappenstoooftenthatnewfacilitiesarenotyetdesignedforthefutureecosystem.Thisisoneofthecoreproblemsintheindustry.Andthisiswhereregulationcanreallybebeneficial-torequirefacilitiestoatleastbepreparedforliquidinfrastructuresinthewhitespace.”
Brink说:“一旦数据中心建成并运行,将不会对自然空间进行重建。在运行状态下,并不会将水管安装进空间。这是不可能的。”
Brinksays:“Assoonasthedatacenterisbuiltandbecomesoperational,you'renevergoingtorebuildthewhitespace.Youarenotgoingtoputwaterpipesintothewhitespaceinanoperationalenvironment.Itisjustimpossible.”
由于在设计阶段没有考虑液体冷却,导致后期对液体冷却的增加产生抵制,他说:“人们往往忽视那些未来经得起考验的必要性投资。”
Becauseliquidisnotincludedinthedesignphase,thiscreates“resistance”fromtheindustrytoaddingitlater,hesays:“Peoplehaveneglectedtomakethemakethenecessaryinvestmentstomakesurethattheyarefuture-proofed.”
这可能是因为建设不同阶段设备的融资和再融资方式,他说:“或者是因为缺少对液体冷却变革的雄心或信心。”
Thismaybeduetothewaythatfacilitiesarefinancedandrefinancedatvarioustimesduringthebuildphase,hesays,“oritmaybelackofambitionornotbelievingintheevolutionofliquidcooling.”
Brink说:“问题是液体冷却的生态环境使其变得更加难以可持续。数据中心不会只为了以防万一冒险多花一点钱,。”
Theproblemisthatit'screatinganenvironmentinwhichit'sstillgoingtobeverydifficulttobecomemoresustainable.Datacenterswon’ttakeariskandspendabitmore“justincase,”saysBrink.
一些问题可以通过教育来改变。ASHRAE已经发表了一些论文,描述了使用液体冷却的不同阶段,同时OCP也做了一些教育工作,他说:“通过立法要求为液体冷却做好准备工作,才能真正对行业产生重大影响。”
注:OCP是'OpenComputeProject'(开放计算项目)的缩写。它是一个开源硬件设计项目,旨在共享数据中心和服务器领域的创新和最佳实践。OCP的目标是通过开发开放标准和设计,提高数据中心硬件的效能和灵活性。该项目由一些大型科技公司共同发起,包括Facebook、Microsoft、Intel等。
Someofthiscanbechangedbyeducation.ASHRAEhasbroughtoutpapersdescribingdifferentstagesofusingliquidcooling(seeBox),andOCPhasalsodoneeducationalwork,butintheendhesays“legislationcanreallymakeasignificantdifferenceintheindustrybyrequiringthepreparationforliquid.”
现阶段,虽然德国能效法案鼓励更多的余热回收,但是仍然没有法律要求新建的数据中心空间中安装管道。
Atthisstage,there’snoprospectofalawtorequirenewdatacenterstoincludepipesinthewhitespace,althoughtheGermanEnergyEfficiencyActdoesattempttoencouragemorewasteheatreuse.
早期的法案试图强制要求新建数据中心中30%的废热应进行回收利用。但是由于德国没有足够的处于合适位置的集中供热系统来利用这部分热量,该要求就这样被迟滞了。
Earlyinitsdevelopment,theActtriedtomandatethat30percentoftheheatfromnewdatacentersshouldbereusedelsewhere.Thiswaspushedback,becauseGermanydoesn’thavesufficientdistrictheatingsystemsintherightplacetomakeuseofthatheat.
然而,至少在建设阶段考虑废热回收利用的要求意味着德国新建的数据中心将会预留热量排放接口,那么将这些排放口与空间中更高效的热量回收系统连接起来将是顺理成章的一步。
ButtherequirementtoatleastconsiderwasteheatreusecouldmeanthatmoredatacentersinGermanyarebuiltwithheatoutlets,anditisalogicalsteptoconnectthoseupwithmoreefficientheatcollectionsystemsinsidethewhitespace.
在整个欧洲,能效指令要求数据中心在2024年报告他们的能源消耗量和能效数据,欧盟将于2025年考虑实施适用的能效措施。
AcrossEurope,theEnergyEfficiencyDirectivewillrequiredatacenterstoreportdataontheirenergyconsumptionandefficiencyin2024,andtheEuropeanUnionwillconsiderwhatefficiencymeasuresarereasonabletoimposein2025.
无论实施何种干预措施,都可能对空气冷却和液体冷却之间的转换产生重大影响。
Whateverinterventionisimposedcouldhaveabigimpactonthehand-overbetweenairandliquidcooling.