隨著新基建時代的來臨,云計算已然大行其道。阿里,騰訊等巨頭紛紛開始布局更大規(guī)模的新一代云計算數(shù)據(jù)中心。這將是一種基于高密度,大容量,且前所未見的網(wǎng)絡(luò)應(yīng)用集合體。和傳統(tǒng)數(shù)據(jù)中心相比,其對于網(wǎng)絡(luò)帶寬、端口密度、安全防護(hù)以及運維管理等諸多領(lǐng)域都提出了更高的要求。比如,對于新一代云計算數(shù)據(jù)中心而言,傳統(tǒng)的制冷方式將限制其計算力的發(fā)揮,而液冷將走向前臺;再比如,從流量的角度來說,傳統(tǒng)數(shù)據(jù)中心屬于簡單的匯聚型流量。但現(xiàn)在,流量將呈現(xiàn)不定向的突發(fā)性,傳統(tǒng)城域網(wǎng)交換機(jī)的性能將變得捉襟見肘。那么歸根到底來說,和現(xiàn)有數(shù)據(jù)中心相比,新一代云計算數(shù)據(jù)中心將呈現(xiàn)哪些新趨勢呢?
統(tǒng)一交換將成為必然,萬兆端口即將翻倍
網(wǎng)絡(luò)的建設(shè)將是新一代數(shù)據(jù)中心最直觀的改變。首先,計算網(wǎng)絡(luò),存儲網(wǎng)絡(luò)和業(yè)務(wù)網(wǎng)絡(luò)將同時存在于新一代云計算數(shù)據(jù)中心當(dāng)中。其次,傳統(tǒng)的建網(wǎng)方式將使得其建設(shè)成本如火箭般上升,同時技術(shù)異構(gòu)的網(wǎng)絡(luò)也無法實現(xiàn)統(tǒng)一的虛擬化。對于云計算價值的發(fā)揮將產(chǎn)生嚴(yán)重的掣肘作用。在這樣的背景下,Ethernet的統(tǒng)一交換網(wǎng)將成為新一代云計算數(shù)據(jù)中心組網(wǎng)的首選。
既然高密度將是新一代云計算數(shù)據(jù)中心的趨勢,那服務(wù)器數(shù)量未來必然出現(xiàn)暴增。君不見阿里,騰訊這些巨頭的數(shù)據(jù)中心動輒數(shù)萬臺服務(wù)器規(guī)模皆尤嫌不足。同時,單臺服務(wù)器核心數(shù)量的增長,必然帶動其帶寬消耗同步增長。這對于目前的網(wǎng)卡而言,將產(chǎn)生極大壓力。
假如某個數(shù)據(jù)中心擁有2萬臺服務(wù)器,收斂比為1:4。那么其基本的萬兆匯聚端口數(shù)量將至少需要500個,如果考慮到安全防護(hù)以及IP存儲等設(shè)備,那么萬兆端口的數(shù)量至少還得再增加1.5倍。
40G/100G接口將迎來高光時刻
在未來,隨著5G和邊緣計算的落地,數(shù)據(jù)中心的數(shù)據(jù)處理能力將是一個天文數(shù)字。在這樣的背景下,作為數(shù)據(jù)交互的關(guān)鍵節(jié)點,出口帶寬的壓力也將驟然增大。目前,大部分?jǐn)?shù)據(jù)中心的出口帶寬都已經(jīng)達(dá)到了100G以上,并且每年還在以超過100%的速度激增。傳統(tǒng)的10G接口顯然無法滿足這樣的需求。那么,40G/100G接口的普及將迎來高光時刻。
流量特征更為復(fù)雜,需部署專門的交換機(jī)
由于服務(wù)器資源動態(tài)調(diào)配的特性,在云計算環(huán)境下,流量的特征將比之前更為復(fù)雜,也更加難以預(yù)測。由此帶來的突發(fā)性也更為明顯。所以未來的網(wǎng)絡(luò),必然要求部署更為專業(yè)的交換機(jī)。和傳統(tǒng)交換機(jī)相比,這些交換機(jī)至少應(yīng)該具備以下特點:
1.完全無阻塞交換網(wǎng)
數(shù)據(jù)中心級交換機(jī)采用CLOS交換網(wǎng),這是一種完全無阻塞交換架構(gòu),從而保證在任何流量特征的環(huán)境下,交換網(wǎng)都是可以實現(xiàn)無阻塞交換。
2.分布式大容量緩存的數(shù)據(jù)中心級交換機(jī)將成為趨勢
緩存的價值在傳統(tǒng)PC上早已為人們所熟知。在云計算時代,交換機(jī)之間的流量交互將無比巨大。甚至多端口同時向一端口轉(zhuǎn)發(fā)的幾率也大為增加,突發(fā)的流量會給端口造成巨大壓力。傳統(tǒng)的城域網(wǎng)交換機(jī)在出口端的小容量緩存,每板一般不超過64兆。一旦出現(xiàn)流量洪峰,緩存的堵塞丟包將不可避免。一旦如此,勢必形成骨牌效應(yīng),從而導(dǎo)致應(yīng)用層的數(shù)據(jù)重傳并引起更為嚴(yán)重的網(wǎng)絡(luò)堵塞。
數(shù)據(jù)中心級交換機(jī)采用的分布式大緩存架構(gòu),其平均每個10G端口的入緩存可達(dá)256M,GE端口的緩存達(dá)20M,再復(fù)雜的流量模型,端口緩存時間最大均可達(dá)到200mS以上。只有這樣,才能滿足未來5G時代,大型云計算數(shù)據(jù)中心的需求。
“天下賦,半三番”的能耗現(xiàn)狀將被液冷終結(jié)
既然計算力將加速上升,那么數(shù)據(jù)中心的能耗自然也會水漲船高。信通院云大所的何寶宏博士曾經(jīng)說過,“再大的風(fēng)也吹不冷滾燙的‘芯’”。的確,對于未來大型云計算數(shù)據(jù)中心恐怖的功耗而言,風(fēng)冷的瓶頸將限制數(shù)據(jù)中心計算力的提升。同時,由此帶來的耗電量也將讓一線城市難堪重負(fù)。
目前IT設(shè)備功耗占到數(shù)據(jù)中心總體能耗的比例為31%左右,而制冷設(shè)備的能耗卻已經(jīng)超過了40%。也就是說,數(shù)據(jù)中心的能耗大部分都消耗在了“降溫”領(lǐng)域。這樣的現(xiàn)狀頗有幾分“天下賦,半三番”的感覺。
在這樣的背景下,液冷技術(shù)將走向前臺。經(jīng)過數(shù)年的發(fā)展,今天的液冷技術(shù)已經(jīng)相對成熟。目前,全球各大企業(yè)已經(jīng)在液冷領(lǐng)域展開了諸多嘗試,市場化產(chǎn)品層出不窮。何寶宏博士認(rèn)為,“實際應(yīng)用顯示,浸沒式液冷的優(yōu)勢非常明顯,可以將單體計算密度提升10倍以上,同時IT設(shè)備占地面積減少75%以上,即縮減為原來的四分之一。”
目前浸沒式液冷技術(shù)上已經(jīng)比較成熟了,只是生態(tài)系統(tǒng)還不夠完善。隨著大型云計算數(shù)據(jù)中心的發(fā)展步入快車道,這種情況勢必改變。生態(tài)建立以后價格必將下跌,而趨勢也將隨之成立。
評論