互联网将会获得飞速发展。举例来说,2016年,全球最大的数据中心大约是58万平方米,但是到了2019年,已经达到了99万平方米,相当于140个足球场。在三年的时间里,最大规模数据中心的面积增长了75%。这就充分说明社会经济进步对于计算力的巨大需求。在这样的背景下,提供超强算力的大型数据中心,以及服务近场数据处理的边缘数据中心势必会加快建造和部署。
据科智咨询(中国IDC圈)最新发布的《2019-2020中国IDC产业发展研究报告》预计,2019-2022年中国IDC业务市场规模复合增长率为26.9%。与此同时,与数据中心建设有关的行业也将连带获得发展。届时,将形成一幅全新的数字经济时代生态版图。
不过我们也应该注意到的是,随着数据中心计算力的提升,其限制因素也将日益明显。对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证电力供应的设备成本以及机房制冷成本。计算密度的增加已经让一些大型数据中心的建设项目资金突破了10亿美元大关,这其中制冷系统占了很大比重。目前,我国数据中心的能耗85%在PUE1.5-2.0之间, ODCC预计,照此趋势,到2030年我国数据中心的能耗将从2018年的1609亿千瓦时增长到2030年的4115亿千瓦时。
要想解决如此之高的能耗问题,传统风冷和水冷空调散热方式将变得力不从心,只有通过液冷才是根本的解决之道。信通院云大所所长何宝宏博士日前在参加中国IDC圈举办的在线直播时曾强调:“对于解决“高热密度数据中心散热”液冷技术将比传统空调更有效,将成为数据中心未来发展的不二选择。液冷技术不仅降温快、能耗低,而且是最环保的。液冷的发展经历了研究期(1992年以前),萌芽期(1992年—2016年),小规模应用期(2016年至今)”。
首先,和传统的风冷技术相比,液体导热能力是空气的25倍,同体积液体带走热量是同体积空气的近3000倍;其次,同等散热水平时,液冷噪音水平比风冷噪音降低20-35分贝;另外,在耗电量方面,液冷系统约比风冷系统节省电量30%-50%;最后,液冷还可以降低数据中心的故障率。传统的风冷系统会带来空气的流动而产生振动,振动会直接影响IT系统的稳定性和寿命。但液冷则完全不必担心这个问题。
由此不难发现,液冷在未来取代风冷和水冷空调在技术上完全没有障碍。何宝宏博士认为,“从风冷到液冷,改变的将不仅是制冷方式,而是整个数据中心的生态。”一旦数据中心的制冷方式从风冷转为液冷,那么随之发生改变的还有服务器的设计,以及整个数据中心的设计。如果液冷技术进一步完善,生态系统进一步成熟,那么将引发一连串的“革命”。
据相关数据显示,采用风冷系统的数据中心,有超过50%的能耗用来应付冷却系统。其PUE值很难控制在1.4以下,且单柜功率密度最高只能到30Kw左右。但应用液冷技术的数据中心,应用在冷却系统的能耗则可以大幅度降低,特别是对于那些采用刀片式服务器加浸没相变液冷技术的机房而言尤甚。其PUE值甚至可以控制在1.1或者以下。和前者相比,机房的整体能效将有30%的提升,而CPU等核心部件的性能也可以相应提升20%,单机柜功率密度更是可以达到160Kw左右。
事实上,出于多种因素的考虑,在数据中心液冷领域也演化出了诸多“门派”。其中最典型的分别是浸没式,冷板式以及喷淋式。不过无论是从当前需求还是从未来数据中心的技术演进来看,浸没式液冷相比于其他两种方式更被行业看好。
从当前的需求角度来看,全球40%的超大型数据中心在美国,而我国虽然紧随其后居世界第二,但比例仅为11%。面对暴增的高性能计算需求,我国的超大型数据中心仍然面临着巨大的市场缺口。这种情况在新基建时代必然“恶补”,而以“三高”(即高密度,高电力和高算力)为主要特点的超大型数据中心,正是浸没式液冷的用武之地。
除此以外,近些年来依托大数据和的日趋成熟,人工智能的发展如火如荼。比如人体基因工程序列计算,自然环境当中的大气或者洋流仿真研究,甚至天体物理的数据处理和宇宙演化模拟等,都必然伴随着大量的数据运算分析处理,包括图片的分析处理。但这必然要求未来建设更多以GPU为核心的,符合人工智能计算力的大型数据中心。但是对于GPU而言,单个芯片的功耗可以达到300瓦以上,这样对于整个服务器来说,散热问题将变得无比严峻,冷板和喷淋等方式在效率上很难满足需求,必须依托全浸没式液冷技术才能够解决。
阿里巴巴副总裁周明表示:“浸没式液冷是数据中心的跃迁式技术创新,具有高能效、高密度、高可用和高可靠等特性。浸没式液冷突破技术瓶颈,可以使单机柜功率密度提升3倍以上;同时,IT部件故障率大幅降低,有效提升云服务品牌。浸没式液冷可以为社会节省大量能源,预计2030年浸没式液冷可节约用电1637.77亿千瓦时,将数据中心的总用电量降低至2477.23亿千瓦时。”事实上,除了行业专家和企业用户的高度关注以外,近两年来,很多设备厂商也加大了针对数据中心液冷市场的产品开发力度。
可以说,在未来新基建时代,大型数据中心将有望成为浸没式液冷技术的天下。不过需要说明的是,由于需要对建筑结构进行“伤筋动骨”的改造,所以浸没式液冷并不适用于对已建成数据中心的系统升级。另外,目前风冷还能够满足市面上热负荷较低的EDC或者小型数据中心,完全没有必要更换价格昂贵的液冷系统。
综上所述,从长远角度而言,社会对于计算力的需求永无止境,而机房的冷却技术发展将在很大程度上决定数据中心计算力提升的瓶颈高低。浸没液冷技术作为一种高效,节能,安全的冷却技术,在新基建时代,将成为大型和超大型数据中心的最佳选择。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容图片侵权或者其他问题,请联系本站作侵删。侵权投诉
(Internet Data Center)是基于Internet网络,为集中式收集、存储、处理和发送
流,通过TCP/IP网络传输。如果服务器之间的TCP/IP 传输速率提升了,
设施供应商”,自2020年、2021年以来,连续三年获得该行业权威奖项。
是全球协作的特定设备网络,用来在因特网络基础设施上传递、加速、展示、计算、存储
本帖最后由 bestups365 于 2011-11-11 10:21 编辑
正在不断发展以适应各种类型的新工作负载。随着业务的增长,在新的IT环境中,以规模和速度运行复杂工作负载的需求至关重要。这可能需要彻底改造
体系结构,或者需要在现有体系结构之上构建更多功能——这两者都强调了实现目标所需的新技能集。
、华北、华东仍将是占比最大的区域,合肥、福建、广东、浙江、江苏、上海和北京等省市正加快推进数字经济建设步伐。2021年,
是企业用来容纳其关键业务应用程序和信息的物理设施。随着它们的发展,重要的是要长期考虑如何保持它们的可靠性和安全性。 什么是
委员会(ODCC)主办,腾讯、阿里巴巴、百度、中国电信、中国移动、中国信息通信研究院和英特尔承办的“2020开放
成为骨干传送网的主要流量,对组网的整个网络架构会产生重要影响。主要是面向
收集方面,实施、操作、故障排除和更新混合IT设置带来了许多新问题,并要求具备更多的
的布局建设上也不遗余力,从标准、规划以及鼓励扶持措施等方面提出相关政策。
和游戏芯片的需求增加的推动下,英伟达Nvidia给出了当前时期强劲的收入预测。
计算、存储、分发的核心枢纽,在互联网时代扮演着极为重要的角色。今天我们就一起来了解
随着能源成本和能源消耗的持续增长,企业为了应对这些挑战,致力寻求更高效的
的电耗达1000亿度,年耗电量超过全社会用电量的1.5%。在美国,2013年
智能化、集中化、专业化。今后将把人从基础的、繁杂的劳动中解放出来,聚焦到智慧治理和经验的传承上。未来小型的、边缘的
解决方案供货商Applied Micro,并表示将出售后者的X-Gene系列ARM服务器业务,一切就已昭然若揭;Applied在美国拥有稳定的大型
业务,到2017年之后将透过100~400G以太网络进一步拓展带宽──并非是利用ARM服务器。
的规模是多大?是将其部署在单栋楼宇内,还是分散布局降低风险?是否有足够的房间,能满足未来20或30年的需要?
|