數(shù)據(jù)中心正在等待一場升級。
新基建正在以我們?nèi)庋劭梢姷乃俣确€(wěn)步推進,不難想象的是,隨著5G的發(fā)展和應用,數(shù)據(jù)中心將會迎來一次新的發(fā)展契機,但更多的則是來自各方面的挑戰(zhàn)。大規(guī)模的連接和海量的數(shù)據(jù)會推動數(shù)據(jù)中心規(guī)模和設備密度的進一步加劇,而視頻、直播等新興應用的普及也會使得數(shù)據(jù)中心的負載越來越多樣和復雜,硬件在提高密度的同時也必須具備更大的靈活性。從IDC最新的統(tǒng)計和預測可以看到,全球數(shù)據(jù)圈會在2018年的32ZB增長到2025年的175ZB,如此海量數(shù)據(jù)的增長自然需要更多的計算能力進行運算和處理。

全球數(shù)據(jù)圈將會大幅增長
海量數(shù)據(jù)當?shù)?,?shù)據(jù)中心節(jié)能減耗迫在眉睫
除了更高的設備密度,數(shù)據(jù)中心要面臨的另一個問題則來自于能耗方面。隨著邊緣計算、大數(shù)據(jù)、人工智能等新技術的發(fā)展,數(shù)據(jù)中心需要更高性能的服務器滿足業(yè)務的發(fā)展需要。但根據(jù)摩爾定律的發(fā)展,芯片的升級也帶來了芯片溫度的提高,給服務器那顆滾燙的“芯”降溫成為了亟待解決的問題。更低能耗的數(shù)據(jù)中心,不僅關系到了環(huán)境的可持續(xù)發(fā)展,也決定了算力的成本和服務的競爭力。
在今年的OCPChinaDay峰會上,英特爾數(shù)據(jù)中心平臺事業(yè)部首席工程師高級平臺架構(gòu)師龔海峰示,邊緣數(shù)據(jù)中心的發(fā)展速度十分之快,與大型數(shù)據(jù)中心不同的是,容量相對較小,只有十幾個機柜,也并不采用頂級元器件的邊緣數(shù)據(jù)中心,工作環(huán)境要更加惡劣,既要解決高密度的計算問題,又要解決能效的問題,簡言之,數(shù)據(jù)中心需要具備更高的可靠性,更低的成本和功耗。
全國也在出臺相應的政策,以上海為例,上海最近發(fā)布了新建數(shù)據(jù)中心PUE嚴格控制在1.3以下,可以預見的是,如果放任不管,無論是對環(huán)境的污染還是對能源的浪費都是很嚴重的,無論是國家還是各個地方政府,對未來的大規(guī)模數(shù)據(jù)中心的建設都會嚴格控制。
數(shù)據(jù)中心早期并沒有專用的精密空調(diào),也沒有統(tǒng)一的標準,最早的時候用的甚至還是民用大功率空調(diào),到上世紀70年代,機房專用精密空調(diào)出現(xiàn),可以有效保障數(shù)據(jù)中心的恒溫恒濕環(huán)境,而除塵方面采用新風系統(tǒng)和機房正壓除塵,從而滿足數(shù)據(jù)中心保持適度恒定,良好的空氣潔凈度、具備遠程監(jiān)控等要求。但在當下的市場環(huán)境里,風冷則面臨著很多窘境,拋去能耗升高的問題不談,風冷失效率上升的因素包含溫度、振動、粉塵、潮濕等,而這些因素也會同時造成硬盤、主板、內(nèi)存等元器件的故障,進而影響到整個數(shù)據(jù)中心的可靠性。
根據(jù)第三方數(shù)據(jù)公司統(tǒng)計,到2025年,常見的自然風冷技術會得到廣泛使用,風冷+液冷混合的分散方案會成為主流,浸沒式液冷的方案也會得到大量應用。
未來冷卻技術使用比例預測
風冷未央,液冷已至,“老”技術仍待升級
從年齡上看,液冷技術也是十多歲的大齡技術了,但發(fā)展比較緩慢,究其原因還是落地、部署及運行的過程中存在不少問題,以浸沒式液冷為例,之前鮮有互聯(lián)網(wǎng)數(shù)據(jù)中心大規(guī)模進行部署,首先是液冷的可靠性,如果可靠性不能達到和風冷一個級別,那使用液冷就變得毫無意義。再就是由于介質(zhì)的改變,元器件是否能在液體中可以長期穩(wěn)定的工作,液體的導電性如何,很多諸如此類的問題,最后就是運維的挑戰(zhàn),密度變高之后,重量也會增加,維護也會更難。
“阿里云從2015年開始對比了不同的冷卻架構(gòu),包括空氣冷卻,冷板液冷,我們從不同的維度進行總結(jié)和對比。從空氣冷卻到冷板液冷,從各個方面進行對比,我們實踐中不同的嘗試著驗證迭代,我們總結(jié)出一些對比可以看到,浸沒液冷是數(shù)據(jù)中心的一個躍遷式的技術創(chuàng)新,具有高可靠、高可用的特點。”阿里云基礎設施服務器研發(fā)架構(gòu)師鐘楊帆說道。
要實現(xiàn)綠色數(shù)據(jù)中心,首先要解決的是電子元器件產(chǎn)品方面的問題,英特爾對CPU的路線圖,其產(chǎn)品策略就是在制造風冷產(chǎn)品的同時,也大力發(fā)展支持液冷的產(chǎn)品,同時英特爾對四種液冷方式都在做產(chǎn)品開發(fā),以適應未來液冷普及的需求。而阿里巴巴則從2016年開始嘗試大規(guī)模部署液冷技術,今年在杭州建成了全球規(guī)模最大的浸沒液冷數(shù)據(jù)中心,這也是全中國首個綠色數(shù)據(jù)中心。相比傳統(tǒng)的數(shù)據(jù)中心,阿里云這一個數(shù)據(jù)中心每年可以節(jié)省至少上千萬的電。
阿里巴巴綠色數(shù)據(jù)中心實踐
相比傳統(tǒng)的風冷,浸沒式液冷幾乎不依賴任何氣象條件,可以在高溫、高濕、甚至在腐蝕性極強的環(huán)境中進行,此外噪音也比較小,對于運維人員來講也是十分大的改善。但到了具體的使用場景,首先要考慮產(chǎn)品對業(yè)務性能的要求,在根據(jù)業(yè)務性能要求選擇元器件,再根據(jù)業(yè)務的算力選擇CPU或者元器件的型號后,根據(jù)對應的TDP選擇液冷或者風冷。除此之外,機房的基礎設施、機柜的功率密度、可靠性的要求、PUE的要求,機房占地面積等要求都對采取的冷卻方式有所影響。
機房冷卻技術的發(fā)展將在很大程度上推動著數(shù)據(jù)中心的發(fā)展,隨著計算存儲網(wǎng)絡以及各種應用的加速,這種設備的虛擬性能的要求對散熱提出了更高的挑戰(zhàn),如何幫助數(shù)據(jù)中心達到節(jié)能綠色環(huán)保的要求,對液冷這個面世雖早,但仍然具有很大發(fā)展?jié)摿Φ募夹g而言,也需要更多的實踐探索。
責任編輯:pj
-
數(shù)據(jù)中心
+關注
關注
18文章
5723瀏覽量
75174 -
人工智能
+關注
關注
1819文章
50223瀏覽量
266541 -
大數(shù)據(jù)
+關注
關注
64文章
9088瀏覽量
143984
發(fā)布評論請先 登錄
萬可為智能數(shù)據(jù)中心建設與運營提供全維度支撐
數(shù)據(jù)中心對UPS電源的4大核心需求,筑牢電力保障防線
1分鐘帶你了解數(shù)據(jù)中心供電架構(gòu) #電子元器件 #數(shù)據(jù)中心 #供電架構(gòu)
數(shù)據(jù)中心UPS并機方案:公用電池組的優(yōu)缺點深度分析
數(shù)據(jù)中心發(fā)展的三大驅(qū)動力
CPU 一腳油門電壓猛跌?疊層超低ESR電容把“過山車”拉平 #數(shù)據(jù)中心#網(wǎng)關
新思科技ZeBu助力富士通數(shù)據(jù)中心創(chuàng)新
施耐德電氣推動金融行業(yè)數(shù)據(jù)中心綠色轉(zhuǎn)型
施耐德電氣SmartCool助力金融行業(yè)數(shù)據(jù)中心節(jié)能降耗
物聯(lián)網(wǎng)數(shù)據(jù)中心是什么?有什么功能?
技術資訊 I 數(shù)據(jù)中心能否承受高溫運行?
中型數(shù)據(jù)中心應用平臺與差分晶體振蕩器參數(shù)對照中型數(shù)據(jù)中心應用平臺與差分晶體振蕩器參數(shù)對照
小型數(shù)據(jù)中心晶振選型關鍵參數(shù)全解
數(shù)據(jù)中心液冷技術和風冷技術的比較
海量數(shù)據(jù)當?shù)?,?shù)據(jù)中心節(jié)能減耗迫在眉睫
評論