|新一代信息技术 信息基础设施建设 互联网+ 大数据 人工智能 高端信息技术核心产业
|高端制造 机器人 智能制造 新材料
|生物产业 生物医药 生物农业 生物技术
|绿色低碳 清洁能源汽车 环保产业 高效节能产业 生态修复 资源循环利用
|数字创意 数创装备 内容创新 设计创新
|产业资讯
|地方亮点及地方发改委动态
|独家内容
|杂志订阅
✍️ 投稿
您的位置:首页 > 其它 > 独家内容
阿里巴巴:已建成全国最大的数据中心集群
2022-06-28 16:06
  中国战略新兴产业融媒体记者  卜文娟
 
  “张北的风点亮北京的灯”。在今年冬奥会,张北县基于风电能力为冬奥提供了云计算服务,这依靠了京津冀数据中心枢纽的阿里张北数据中心。张北数据中心是阿里在国内建设的最大的数据中心集群基地,除了张北,阿里还陆续在其他几个枢纽节点城市建立了数据中心。
  阿里巴巴集团基础设施事业群首席架构师兼IDC研发总经理高山渊对本刊记者表示,在国家规划的算力枢纽节点和数据中心集群起步区边界中,阿里云早已积极布局,建设低碳绿色的数据中心。截至目前,阿里云在全球25个地域部署了上百个云数据中心,其中规划建设了5座超级数据中心,分别位于张北、河源、杭州、南通和乌兰察布,可以说,阿里巴巴已建成全国最大的数据中心集群。
 
 
  国内首个采用三点式布局
 
  据了解,张北数据中心于2016年9月投产,是国内企业中首个采用三点式布局的数据中心集群,它大力采用风电、光伏等绿色能源,部署了国内云计算数据中心规模最大的浸没式液冷集群。
  何为三点式数据中心?高山渊介绍,考虑数据的安全性,在同一个城市20-30公里的范围内,选择3个数据中心组成一个三角形的架构,将定制处理器、存储、服务器三者分布式部署,可以最大程度地保证数据安全和服务稳定,其中任何一个节点出故障都不会导致云服务的中断。
  张北数据中心成为阿里全国最大的数据中心集群基地,从选址建设到今天,实际上经历了很多的坎坷。高山渊具体介绍道,很多人认为数据中心建到相对比较冷的地方,有利于降低PUE。但是实际上在特别寒冷的地方建设数据中心,也有很多技术挑战。
  “张北去年最低气温是零下37摄氏度,在这样的极低气温下,要考虑的不仅是给服务器降温,还要考虑数据中心基础设施如何保温才能正常工作。阿里原来用的干冷器风冷的设备在张北这种极寒条件下也出现过质量问题,在这个过程中,我们付出了很多的努力。”
  第二个难点是电力的配套。按照技术要求,电力需要一个双路冗余的结构,但是很多地方要做到这样的输变线路实际上是比较难的。此外,张北数据中心建成之后投产运营人员的稳定性是一个非常大的挑战,一是优秀的人可能都不愿意去这些较偏远的地方,二是当地的人才资源也比较少。
  据悉,阿里的宣化数据中心也属于“东数西算”工程中的京津冀枢纽。除了布局京津冀枢纽,阿里也在其他枢纽建立了数据中心。
  2020年2月18日,阿里云广东河源数据中心正式对外提供服务。这是华南地区规模最大的绿色数据中心,可容纳超过30万台服务器,作为深圳地域的新可用区为华南地区上百万企业客户提供云计算、人工智能、物联网等服务。
  2020年6月,阿里云在内蒙古乌兰察布布局的超级数据中心开始正式对外提供云计算服务。2021年5月,阿里巴巴乌兰察布数据中心荣获“碳中和数据中心创新者”称号。乌兰察布是国内重要的可再生能源发展区域,阿里巴巴乌兰察布数据中心不仅属于内蒙古枢纽,同时也是阿里布局于西部的重要枢纽节点。
  2020年11月,阿里云西部云计算中心及数据服务基地落户成都。成都数据中心基地作为阿里云西部业务的重要支撑,将综合采用各项先进技术,如服务器定制化、人工智能芯片、异构计算、大规模网络集群等,提升整体项目技术水平和算力产出。
 
  将服务器“泡在水里”
 
  数据中心自身的能耗问题也备受关注。由于冷却系统耗能占比高、可优化空间大,当前通过改善数据中心的制冷方式,进而降低数据中心能耗,已经成为推进我国数据中心高质量发展的必要措施之一。
  液冷技术是数据中心制冷革新的关键技术之一,可以较好地提高数据中心的能效水平。浸没式液冷技术主要由冷却液、腔体结构、换热模块及相关的连接管道等设施构成。其中,冷却液为数据中心的换热介质,具有高绝缘、低黏度以及超强的兼容特性,是浸没式液冷技术的主要媒介。主板芯片等发热器件表面的散热性能在很大程度上影响介质沸腾的换热强度,若芯片表面光滑,则液体在换热面上的传热系数较高,从而提高热量的散发速率。
  阿里云工程师研发的“将服务器泡在水里”的浸没式液冷技术,将服务器浸泡在特殊的绝缘冷却液里,运算产生的热量可被直接吸收进入外循环冷却,全程用于散热的能耗几乎为零。这种形式的热传导效率比传统的风冷要高百倍,节能效果超过70%,实现了数据中心100%无机械制冷。
  据高山渊介绍,数据中心一般有两套循环系统,一套是把热量从IT设备带入到空气里边,第二套是把室内空气里的热量排到大气中。而浸没式液冷技术就是为了解决IT设备散热问题。
  高山渊说:“液体的潜热非常大,所以它可以做到以比较高的冷却液温度去循环,满足IP设备稳定运行的需要。在国标里,风冷数据中心为了让IT设备稳定运行,要求以18摄氏度到27摄氏度冷空气吹过,但是在沉浸式液冷里面液体温度可以调到30多摄氏度。”
  他表示,“液冷内循环本身比较高效。温度越高越有利于热量散发,所以外循环也可以做得非常简单。所有的IT设备散热效果进行充分优化,它的稳定性和寿命会得到很好的提升,而且基本上可以做到全球所有的地方都用同一套的技术标准。”
  据介绍,IT设备最大的故障源大概有3个,第一是震动,服务器为了散热,风扇带来震动,这对服务器的稳定性影响大。第二是整体的温度、湿度,温度太高就会影响IT设备的稳定性和寿命,温度低、湿度大又会有结露或者腐蚀等问题出现。第三是静电和灰尘问题,但是用冷却液把设备泡起来之后,这类问题就可以规避掉。据悉,使用沉浸式液冷技术的设备故障率会下降一半以上,而且噪音非常低。传统的风冷机房噪音大概在90分贝到100分贝,浸没式液冷机房里面基本上会降到50多分贝。
  据了解,全球规模最大的全浸没式液冷数据中心、阿里巴巴在杭州的首座云计算数据中心——阿里巴巴浙江云计算仁和数据中心于2020年9月开服,它也是中国首座绿色等级达5A级的液冷数据中心,将有效辐射长三角经济带。
 
  通过技术提升新能源消纳的比例
 
  目前数据中心成本高企。
  高山渊分析,“建筑比较大一点的投资都是几亿元到几十亿元这样的规模,一个城市如果选三点架构,规模就可能达到几十亿接近百亿了,再算上服务器等基础设施,就更贵了,同时运营成本会比较高,一个是电费,一个是网络传输。”
  面对成本的提高,企业又该如何提高运营效率呢?
  区别于传统数据中心,新型数据中心主要为了云计算而服务,规模、成本、效率、管理运行都是云计算化。云计算推动数据中心规模扩大,数据中心持续走向规模化、集约化,大型或超大型数据中心成为主流选择;提升数据中心运营效率,整体运维、监控环境更加自动化、智能化。
  高山渊认为,算力的发展不是盲目建设数据中心,需要有秩序、高效、低碳。这次五部委联合发布,对数据中心的战略布局有了更清晰的定义和规划思路,在全国层面,将产业协同和资源协作进行了有效整合,同时也涉及到未来大规模、可持续发展。
  “最初选择张北实际上就是看中了这里新能源丰富的特点,所以我们从开始建设到现在消纳了当地大量的新能源,间接促进了当地新能源的发展,能够成为碳中和实践的标杆案例。”
  如何让整个应用的效率最大化,而不是让这些服务器或者IT设备空跑?又如何促进能源结构转型?高山渊认为,“有些地方可能没有新能源,若能通过绿电交易或者碳汇等其他方式促进新能源的消纳,也是一个可以帮助实现碳中和的手段。”
  他认为,未来数据中心建设也将分成边缘型和集中型,“大的更大,小的更小;近的更近,远的更远”。而未来从资源布局情况来看,除了要结合业务需要,还要结合国家的“东数西算”整体政策去布局,比如说目前在8大节点的核心枢纽,阿里已经有像张北、乌兰察布、成渝、嘉善这些节点去做业务。
  他强调,“从技术来看,通过技术手段提升新能源消纳的比例,实际上是一件挺难的事情,现在的电网对于新能源的消纳能力实际上是有一定欠缺的,怎么通过现有储能技术让新能源就近被数据中心消纳,也是阿里巴巴现在重点去做的。”
  “阿里云一直践行绿色数据中心理念,以低碳选址、清洁能源、液冷技术等融合AI应用,加速绿色节能技术创新及迭代升级。”高山渊表示。
  END
  来源:本刊原创文章
关注微信公众号:

官方账号直达 | 关于我们 | 联系我们 | 招聘 | 广告刊例 | 版权声明

地址(Address):北京市西城区广内大街315号信息大厦B座8-13层(8-13 Floor, IT Center B Block, No.315 GuangNei Street, Xicheng District, Beijing, China)

邮编:100053 传真:010-63691514 Post Code:100053 Fax:010-63691514

Copyright 中国战略新兴产业网 京ICP备09051002号-3 技术支持:wicep