注册有礼
< 返回资讯中心

夏天到了,给数据中心泼点“冷水”(上)

发布人:中嘉和信 发布时间:2023.06.16 来源:360机房

气温上升,还有什么能比“工作没了”,更能让人一瞬间心里拔凉拔凉的呢?

这个“薪尽自然凉”的故事,就发生在数据中心。

前不久,某电商平台正在购物高峰期,结果IDC冷冻系统故障,机房设备温度快速升高,直接宕机了12个小时,据说损失高达一亿以上。

业务凉了,该企业的基础平台部负责人的职业生涯也凉了。当然,受伤的不止一个人,因为这次机房事故影响的还有微信、QQ等软件,腾讯内部的几个高管也遭到了降级、免职的处罚。

(事故公告)

AI热度狂飙,数字经济加速,作为计算的心脏最该保持凉爽的数据中心,也越来越难以冷静,所以液冷也成了除AI之外,计算厂商“群起而攻之”的概念,也是IT人不得不关注的技术。

2022年被认为是数据中心的“液冷元年”。

因为客户多了,双碳战略和东数西算的政策持续牵引,液冷从少数互联网巨头、公有云厂商、智算中心、HPC高性能计算中心等的选择,开始引发更多大众行业和企业的关注。

有需求就有供给,厂商动作也明显多了。众多服务器厂商、云计算和互联网企业争先研发数据中心液冷技术,甚至有厂商喊出了Allin液冷”的口号,许多新的液冷产品和解决方案被推向市场。

资本市场也愿意为液冷概念买单,今年以来,中科曙光、申菱环境、网宿科技、英维克等相关企业都出现过大涨。

多股力量之下,液冷的热度很难不高。

不过,数据中心的冷却技术发展了很多年,液冷对于数据中心来说并非新鲜事物,降本降PUE需求也不是一年两年了,为什么AI一来液冷就突然成了风口?这个热度是真实的吗?

这个炙热的夏天,我们不妨通过液冷的故事,来清凉一下。

时也:真的假的“元年”?

元年,是个被用滥了的词,我们听过太多野心家嘴里的“元年”了。2014“智能家居元年”,买回家的蓝牙联网电器再也没有更新过;2015VR元年”,没两年行业就骤然降温;2021“元宇宙元年”,一时沸腾,很快就被大家忘在脑后了……

数据中心的“液冷元年”,会不会也是昙花一现的概念炒作和噱头呢?

我们也可以换个角度,来看看那些公认靠谱的“元年”,液冷是不是有雷同的要素加持?

2019被称为5G商业应用元年,大量5G商用牌照发放,进入明显的加速进程——这是政策的强力牵引。

再看液冷,数据中心是能源密集型的,随着双碳政策的推进,数字经济加速,工信部提出,2022年全国新建大型数据中心PUE要达到1.4以下;“东数西算”文件进一步要求,东部地区集群数据中心的PUE要控制在1.25以内,西部地区在1.2以内。在此背景下,数据中心“节能减排”已经势在必行,风冷技术进步已经放缓,液冷开始得到重视,合理。

2022,被称为AIGC元年,AI作画爆火,能力开始为全球用户所接受,岁末年初的大语言模型又添一把火,AIGC进入产业化应用已成必然——这是技术的成果扎实。

目前,风冷在数据中心中仍占主导地位,液冷尚未得到更广泛的采用,但主流服务器制造商都在2022年陆续开始建设标准化规模生产冷板液冷服务器的产线,几乎所有的头部互联网公司都已对液冷技术密切跟踪。技术夯实,成本随产业化、标准化、规模化而大幅下降,液冷开始渗透,有戏。

往远一点,1956年被称为“人工智能元年”,是因为麦卡锡、闵斯基、香农等知名学者汇聚在达特茅斯会议,群星璀璨——这是高屋建瓴的洞察。

新一轮AI革命已经“做实”,当前AI正处于史上最长繁荣大周期,而AI计算等高性能应用的芯片架构,热功率密度急剧上升,CPU已从每个芯片的150瓦增加到300瓦以上,图形处理单元(GPU)已增加到每个芯片700瓦以上。功率越大,芯片就越热,冷却要求也就越高。这些高功率CPUGPU被封装到服务器中,每个机架产生的热量就更多了。越来越多计算专家、科学家认同数据中心要供给高效绿色低碳的算力,Azure的首席架构师MarcusFontoura指出,510年内,液冷的数据中心将成为主流,而不仅仅在超算和比特币挖矿领域。液冷+DC的长期前景,看好。

从这个几个判断依据来看,“液冷”和数字经济之间的联系密切,成为这一年来数据中心行业的关键词,“元年”这个词不是行业炒作的噱头,是有真材实料的支撑。

命也:打铁还需自身硬

或许有人会说:到底还是政策导向,双碳降PUE的需求,只要机房里空调够给力,增加的热气一样会被冷却,IT设备照样好好地很可靠。

确实,只要服务器入口能保持在17-27摄氏度(64.4°F80.6°F)之间,那管你什么冷却技术,能抓住老鼠的都是好猫,能降温就行。液冷能被选中,还是在于自身的技术先进性。

传统冷却方式,气流对流冷却,可以简单统称为“风冷”。因为都是通过冷空气与服务器的发热元器件(CPU、图像处理器、存储等)进行热交换,来达到制冷的效果,通常会有机房空调(CRAC)或机房空气处理器(CRAH)单元,就类似于大家在家里吹空调,大热天里凉风习习,想想就美滋滋。所以,数据中心有80-90%都是风冷。

吹空调已经很爽了,为什么还要冲“冷水澡”?

液体冷却,就是通过液体冷媒,将发热源的热量传递到远处,再进行冷却。

这就是液冷技术的“天生命好”——技术更先进。

液体冷媒比空气的比热容大,所以液冷的制冷效率和散热速度,远远高于风冷。相当于室温太高,空调得吹个十几分钟才舒适,而冲凉水一下子就能从头凉到脚,哪台高速运转的服务器能拒绝这种快乐呢?达到同样的冷却效果,液冷的电源消耗更小,PUE(电源使用效率)也更低,很多浸没式液冷数据中心的PUE值甚至可以达到1.031.05IT打工人降PUE的绩效稳了。

液冷元件比风扇的声音小,所以整个液冷系统的噪声,也比风冷CRAH单元小,基本可以达到“静音”效果。想象一下,如果没有单独的机房,又要在办公室里放一台服务器,谁坐在嗡嗡嗡的机器旁边还能安心办公啊,所以哪怕稍微贵一点,也愿意选液冷。

液冷系统比空气更可控。风冷“看天吃饭”,外部气温变化都可能影响到制冷效果,导致意想不到的故障,液冷就可控多了,只要冷媒不断不漏,能持续稳定地发挥冷却作用。这意味着,像新闻里那样因为设备过热中断宕机而丢工作的IT倒霉蛋,会少很多。

空调可乐冰西瓜,是普通人眼里美妙的夏天,而紧紧巴巴挤在机柜服务器的处理器们,“冲凉”才是最惬意的享受。

运也:液冷来到临界点TippingPoint

既然液冷这么好用,为什么风冷还是数据中心的主流,为什么微软还要把数据中心搬去海底,为什么谷歌不早点向液冷转型?

答案就是,液冷技术刚刚才来到“临界点TippingPoint”。

液冷在数据中心的应用并非新鲜事物,已经存在了一段时间。上世纪60年代,IBM大型主机就通过液冷来解决固态设备的散热难题。发展到本世纪,浸没式液冷也应用在超算、高性能计算场景中,是当之无愧的黑科技。

而普通的数据中心机房,开始趋势性地采用液冷,是近两年才开始到达“临界点”。

所谓TippingPoint”,也被翻译成转折点、引爆点,指的是某个事物发展到一定程度,会产生重大且通常不可阻挡的变化,向野火一样蔓延的神奇时刻。

根据格拉德威尔的说法,临界点到来的一个重要因素是“粘性”,即一个事物是不是能够“粘”在公众的脑海中,并影响他们的决策行为。

而我们观察到,近年来液冷行业的一些变化:

首先,产业需求的粘性很强。

以往液冷技术主要应用于高性能计算领域,数据中心又是一个较为传统的行业,液冷的部署环境与传统的机房有较大的差异,改造成本是很高的——除非它值得。

AI和数字化的普及,让液冷的需求粘性变得跟502一样黏着。

以谷歌为例,一开始并不愿意采用液冷方案。谷歌数据中心副总裁卡瓦曾说:“想象一下,有一排又一排,一排又一排的机架,装满了我们的服务器。我们的硬件运营团队每天都在那里,升级、维修、部署......如果所有这些服务器浸泡在数十万加仑的矿物油中,日常操作将变得更加复杂。”

中嘉和信作为深耕IDC行业十余年的数据中心服务商,致力于成为行业领先的数字化业务连续性保障服务提供商。业务覆盖金融机构、银行保险、人工智能、电商零售、交通运输、生产制造、能源化工、地产建安、生活服务等多个行业。中嘉和信为客户提供数据中心规划建设、数据中心托管运营、公有云、私有云、混合云DCI全球组网、云网融、信创集成服务、安全集成服务等定制化解决方案,依托经验丰富的专业技术服务团队和先进的运维服务管理体系,持续为各行业客户提供一站式数字化业务连续性保障服务,陪伴客户共同成长,助力客户实现梦想。如有业务需求请拨打010-51265666进行咨询,欢迎预约参观机房!

文章来源:互联网,如有侵权联系删除!

相关文章推荐推动效率提升的5个数据趋势


热门新闻

版权所有©2023年北京中嘉和信通信技术有限公司京ICP备09037838号-6京公网安备11010602104635号