作为人工智能的底层支撑,超大规模算力基础设施的运行情况以及能耗问题引起各界关注。事实上,算力基础设施不仅耗电,也非常耗水,因为水是服务器散热的重要方式。根据谷歌2023年的ESG报告,仅仅一年,谷歌就用掉了56亿加仑水,也就是2545万立方米。有人测算,这水量能装满一个半西湖,或者3810个水立方,再直观一点,相当于装满250亿瓶农夫山泉。水为什么能给服务器散热,相比传统的风冷也就是吹风扇、吹空调散热,有什么好处?近日,联想中国基础设施方案业务市场总监李鑫接受中国证券报记者采访,解释了其中原理。
据了解,一个算力中心,几乎六成的成本在电费,而电费中四成又落在散热上。所以寻找更优的散热方式,省下这笔电费,是算力产业界非常重视的事情。
李鑫介绍,运行中的算力芯片温度会高达80摄氏度,运行效率下降。过去散热主要是用“冷风吹”,但空气的比热容低,降温速度慢,要带走这些热量,所耗的电量就非常大。而水的比热容要比空气高非常多,用水冷的方式,比如让45摄氏度的温水顺着服务器中的管路进来,就可以带走服务器中包括CPU在内的发热部件的热量,出来的水的温度在60摄氏度~65摄氏度。他表示,这样的散热方式,可以让芯片的运行性能更好,另外可以达到省电的效果。这些热水还给一些地方在冬天供暖。例如上海交通大学就有这样的应用。李鑫还表示,在我国,这样的水冷服务器越往南越受欢迎,比如在海南这样一年四季可能都需要开空调的地方,部署水冷服务器,能省下空调的费用。去年联想水冷服务器产品在海南交付了一千台。他解释,因为海南室外温度接近40℃,65℃的出水可以通过自然降温,再补回来。机房里空调不用买了,空调的电也省了,成本立刻就省下来了,另外没有了空调和风扇,机房也不再是印象中嗡嗡嗡的嘈杂环境。根据统计,使用水冷服务器,数据中心能源成本可以减少40%,系统性能提升10%,PUE也就是电能利用效率最多可以降到1.1以内。李鑫认为,未来随着智能算力进一步广泛部署,机柜服务器部署密度会进一步上升,“空调散热已经吹不动了”,降低部署密度的话,光纤成本会大幅上升,同时也会牺牲时延。总之,水冷散热有望成为未来大规模智能算力设施部署的标配。李鑫表示,这些水是去离子水。去离子水的好处是即便发生泄漏,也不会引发短路。当然,水冷的方式虽然减少了电力消耗,但会消耗大量水资源,在缺水地区问题会更加突出。专家呼吁,未来随着AI发展以及算力基础设施的持续部署,不仅要考虑绿色能源的问题,还应考虑水资源利用效率(WUE)、数据中心生态设计、电子废弃物回收等可持续议题,做好可持续性评估。