发布时间:2024-11-21 09:13

服务器冷却技术对AI发展至关重要

  参考消息网11月20日报道 据《日本经济新闻》11月7日报道,随着耗电量巨大的生成式人工智能(AI)普及,预计到2050年日本国内电力需求最多将增至目前的约1.4倍。增加的电量大部分由数据中心消耗,并且会产生巨大热量。各运营商正竞相引进新冷却技术,以降低服务器温度和保持其性能稳定。


  在 川崎市宫前区,在住宅楼和商业设施鳞次栉比的街道一角,有一栋窗户较少的建筑引人注目。NTT通信公司正在这里对用于AI数据中心的新冷却技术进行验证。


  在作为AI数据中心核心区的服务器室,安静的程度令人震惊。服务器机架周边通常布满发出噪音的降温风扇,而在这里风扇几乎不见踪影,取而代之的是铺设在机架和服务器之间的黑色管道。


  管道内流动着温度约为20摄氏度的水,这些水被输送至服务器内的金属板。通过使用热导率比空气高的水,可将冷却性能提高至原来的5倍左右,冷却过程所需电力可减少约3成。


  美国英伟达公司的图形处理器(GPU)B200是数据中心行业争夺的对象,单个B200耗电量最高可达1200瓦,是传统服务器用半导体的三四倍。采用风扇冷却法难以保证其稳定运作。


  在这一背景下,应用于部分超级计算机等的液冷技术受到关注。经营相应服务器业务的是美国戴尔技术公司,戴尔日本法人产品负责人上原宏表示:“从2023年夏季开始咨询量激增。”


  引进液冷方式需要改造设施等,通常需花费一年以上时间。为了迅速应对旺盛的冷却需求,有些企业尝试利用集装箱代替厂房收纳服务器和液冷设备。


  樱花互联网公司就是其中之一。该公司投资29亿日元(约合1900万美元)在北海道石狩市推动建设三箱集群集装箱数据中心。


  2021年日本国内用电量为9240亿千瓦时。据日本电力中央研究所预测,随着数据中心日益增多,2050年国内用电量相比2021年的增幅最大可达37%。


  通过以光信号的形式传送数据减少延迟,将相距较远的多个服务器群像一个大规模数据中心一样进行运营, NTT通信公司将大力推进这一技术实用化。通过避免使数据中心集中分布在首都圈,预计可将构建和运营成本降低50%,耗电量降低40%。


  鉴于核能发电过程不排放温室气体,美国微软和谷歌公司等科技巨头也在寻求利用核电。(编译/马晓云)