下一代數(shù)據(jù)中心規(guī)模將縮小 需降低相關(guān)風(fēng)險與問題

責(zé)任編輯:editor04

2014-11-17 23:47:03

摘自:TechTarget中國

下一代數(shù)據(jù)中心規(guī)模會縮小得更厲害,IT專業(yè)人員必須向前看,在受益于更高計算密度時,降低相關(guān)風(fēng)險與問題。

現(xiàn)代數(shù)據(jù)中心正深深地感受到密集計算所帶來的影響。計算硬件、系統(tǒng)、虛擬化、網(wǎng)絡(luò)策略和支持技術(shù)不斷發(fā)展,更高的計算性能可以被配置在與幾年前一樣的物理空間架構(gòu)內(nèi)。提高密度有助于降低采購成本與能耗。但高密度計算同樣也存在一些問題,諸如潛在的管理挑戰(zhàn)與更高的硬件依賴。

下一代數(shù)據(jù)中心規(guī)模會縮小得更厲害,IT專業(yè)人員必須向前看,在受益于更高計算密度時,降低相關(guān)風(fēng)險與問題。

空前密集的硬件

沒有什么比高密度對計算硬件,如服務(wù)器、網(wǎng)絡(luò)與存儲設(shè)備部署的影響更明顯了。想想傳統(tǒng)處理器的密度。單核、雙核以及四核處理器已經(jīng)讓位給八核甚至更多核的組件。例如Intel Xeon E7-8857提供了12個核心,而Xeon E7-8880L提供了15核。這樣對諸如IBM System x3850 X6的四插槽服務(wù)器,可配置最高達60處理器核心,部署數(shù)十臺虛擬機。甚至如PowerEdge M620都可以支持兩個Xeon E5-2695 12核處理器,達到每刀片24核。

這一趨勢同樣也蔓延到服務(wù)器內(nèi)存。內(nèi)存模塊充滿了新功能,機架式服務(wù)器內(nèi)存可以根據(jù)模塊與功能選型(如備用內(nèi)存、內(nèi)存鏡像等功能),擴展到128GB至超過1TB的容量。刀片服務(wù)器通常的內(nèi)存規(guī)模為每刀片32GB到64GB總?cè)萘俊.?dāng)然,內(nèi)存還可以通過使用相同型號的刀片機箱存儲器快速增加,可支持6、8甚至更多刀片。

存儲也變得越大越快,內(nèi)存與存儲之間的界限變得越來越模糊,而且閃存宣稱其將在服務(wù)器架構(gòu)中占據(jù)一個永久地位。比如,固態(tài)硬盤(SSD)設(shè)備已經(jīng)在高性能存儲層(有時候也被稱為第0層)扮演著新角色,它采用傳統(tǒng)的SATA/SAS硬盤接口,容量規(guī)模從100GB到1TB。

為了更好的存儲性能,服務(wù)器可以選配基于PCIe固態(tài)硬盤加速器(SSA)的設(shè)備,如Fusion-io的ioDrive2產(chǎn)品,每單元可以配置高達3TB閃存存儲。當(dāng)峰值存儲性能成為關(guān)鍵時,IT專家們開始考慮TB級別的內(nèi)存通道存儲(MCS)設(shè)備,如Diablo Technologies DDR3閃存存儲模塊,該產(chǎn)品可以配合常規(guī)DIMM內(nèi)存模塊共享內(nèi)存使用。這個爆炸性的革命數(shù)據(jù)中心硬件并不完美。例如,增加高端內(nèi)存容量會增加服務(wù)器成本,并降低性能。類似性能損失同樣發(fā)生在采用非內(nèi)置內(nèi)存刀片服務(wù)器上,因為數(shù)據(jù)傳輸需要通過整個背板而有所延時。IT專家說,這種潛在問題正使傳統(tǒng)系統(tǒng)的性能瓶頸從CPU擴展限制轉(zhuǎn)向內(nèi)存與存儲問題,而且資源分配策略必須修改,以不斷適應(yīng)諸如數(shù)據(jù)中心密度增加的各種變化。

“我們最近面臨的新問題是管理存儲層的IOPS,”Reach IPS公司IT主管兼顧問委員會成員Tim Noble說,他還指出在虛擬機管理程序?qū)?,使用厚存儲配置與自動精簡配置會引發(fā)存儲緩存問題,進而需要對存儲層級進行重新劃分。

“當(dāng)掛起寫緩存滿了,所有連接到陣列上的系統(tǒng)都可能崩潰或需要恢復(fù),”Noble說。不過,盡管存有潛在隱患,潛臺詞是明確無誤的:先進的硬件與虛擬化組合,可以讓更多的工作負(fù)載在更少的服務(wù)器與更小空間內(nèi)運行。

“我正在規(guī)劃新的數(shù)據(jù)中心,所有業(yè)務(wù)都將只運行在一個單刀片機箱上,”Magpul Industries Corp.公司的IT主管Chris Steffen說,“其中將包含近200個虛擬機,內(nèi)部網(wǎng)絡(luò)與SAN都將放入一個機架。十年前,這樣的規(guī)模需要近2000平方英尺數(shù)據(jù)中心空間。”

更高的帶寬與連接性

討論數(shù)據(jù)中心密度必須包括網(wǎng)絡(luò)的發(fā)展。傳統(tǒng)以太網(wǎng)速度已經(jīng)能夠達到10GbE、40GbE甚至100GbE,只有少數(shù)組織采用更快的標(biāo)準(zhǔn)——而且主要用于超大規(guī)模數(shù)據(jù)中心的網(wǎng)絡(luò)骨干上。“我實在不明白升級到更快的傳統(tǒng)以太網(wǎng)有什么好處,”Steffen說,“這些錢可以更好地花在企業(yè)其他投資上。”

相反,大多數(shù)數(shù)據(jù)中心持續(xù)采用各服務(wù)器1GbE的部署方案,著眼于更大的服務(wù)器連通性與網(wǎng)路虛擬化。例如IBM System X3950 X6提供兩個擴展槽,可以容納多個網(wǎng)絡(luò)適配器,如兩個4*1千兆以太網(wǎng)是配置(每臺服務(wù)器最多可以配置8個1GbE以太網(wǎng)端口)。同樣大多數(shù)常規(guī)機架服務(wù)器都可以安裝基于PCIe的多端口網(wǎng)卡。當(dāng)服務(wù)器承載大量虛擬機時,通常才會去增加網(wǎng)絡(luò)端口數(shù)量,而不是升級更快標(biāo)準(zhǔn)的以太網(wǎng)卡。多端口可以提升服務(wù)器可靠性,防止出現(xiàn)單點故障影響網(wǎng)絡(luò)連通性。每個網(wǎng)卡通常都配置在不同交換機上,確保不會因為交換機故障而影響所有通信。不僅如此,多個網(wǎng)卡可以通過綁定技術(shù)來提供更高帶寬,以滿足工作負(fù)載需要。多網(wǎng)絡(luò)接口還可以實現(xiàn)故障切換,允許工作負(fù)載在某個端口貨交換機故障時,切換到可用的網(wǎng)口或交換機上。

另外兩個新興技術(shù)將影響數(shù)據(jù)中心網(wǎng)絡(luò)密度與管理,“軟件定義網(wǎng)絡(luò)(SDN)與網(wǎng)絡(luò)功能虛擬化(NFV)。SDN將交換機邏輯與交換機端口去耦合,允許對交換機進行集中行為分析、控制并(在理想情況下)優(yōu)化。網(wǎng)絡(luò)可以“學(xué)習(xí)”更有效或更高效的網(wǎng)絡(luò)通信路徑,并修改交換機配置實現(xiàn)變更。若實施得當(dāng),SDN的交通流量優(yōu)化可以實現(xiàn)在沒有更大帶寬的條件下細(xì)分流量,提高網(wǎng)絡(luò)利用率。

通過比較,NFV利用標(biāo)準(zhǔn)服務(wù)器與交換機,使用虛擬化模擬復(fù)雜網(wǎng)絡(luò)功能或應(yīng)用程序。NFV可以提供包括網(wǎng)絡(luò)地址轉(zhuǎn)換(NAT)、域名服務(wù)(DNS)、防火墻、入侵檢測與防御以及緩存等功能。其目標(biāo)是利用服務(wù)器的標(biāo)準(zhǔn)功能,替代昂貴的專有網(wǎng)絡(luò)設(shè)備,并實現(xiàn)快速部署與可擴展,這些功能非常適用于新興云計算和其他自助服務(wù)環(huán)境。

撇開網(wǎng)速復(fù)雜性,配置對于確保日益密集的網(wǎng)絡(luò)連接最佳性能是十分重要的。“服務(wù)器與交換機之間的配置不當(dāng),可能導(dǎo)致性能問題或更糟,”Noble說,這一影響在工作負(fù)載遷移到更高性能服務(wù)器或計算高峰期需要額外資源時,會變得尤其突出。

如何散熱

隨著數(shù)據(jù)中心密度增加,IT專家們開始遇到由計算熱點或不良通風(fēng)而造成的發(fā)熱問題。但是,現(xiàn)代數(shù)據(jù)中心很少遇到發(fā)熱問題——這主要歸因于過去幾年中所開發(fā)的能源效率與熱量管理技術(shù)。關(guān)鍵因素之一就是現(xiàn)代服務(wù)器與計算組件經(jīng)過改良設(shè)計。以處理器為例,它通常是發(fā)熱最高的部件之一,但新型處理器設(shè)計與模具制造技術(shù)基本能夠保持處理器溫度持平,即使核心數(shù)成倍增加也不受影響。我們以Intel Xeon E7-4809六核處理器為例,功耗為105瓦特,而Xeon E7-8880L 15核處理器功耗同樣為105瓦特。提高時鐘率到最快的Xeon E7-4890 15核處理器最高能耗也僅有155瓦特。

同時,數(shù)據(jù)中心運營溫度也有所提升,因為IT人員發(fā)現(xiàn)數(shù)據(jù)中心溫度在80或90華氏度時,對設(shè)備運行并沒有任何明顯影響。為了應(yīng)付更高溫度,服務(wù)器的熱管理設(shè)計也有進一步改善,加入了熱傳感器與主動變速散熱系統(tǒng),從各個單元帶走熱量。“最密集的硬件平臺移動空氣就像噴氣發(fā)動機一樣,以此確保其冷卻,”Steffen說。

虛擬化是對讓熱量從服務(wù)器中移出的完美補充,可以大大降低整體服務(wù)器數(shù)量,以此也降低了需要從數(shù)據(jù)中心內(nèi)排出的空氣總量。類似VMware的分布式資源調(diào)度程序(DRS)與分布式電源管理(DPM)技術(shù)甚至可以根據(jù)需求在服務(wù)器之間移動負(fù)載,關(guān)閉不需要的服務(wù)器。最終結(jié)果是,數(shù)據(jù)中心不再依賴于龐大、耗電的機械空調(diào)系統(tǒng),不需要為巨大空間內(nèi)滿負(fù)荷運行的硬件進行冷卻。相反,高整合度的系統(tǒng)有利于容器與冷卻基礎(chǔ)設(shè)施更有效地冷卻機架,甚至可以采用機架內(nèi)冷卻單元。

這樣的整合與銜接也并非完美,IT專家指出,糟糕的設(shè)計與改造可能產(chǎn)生無法預(yù)料的熱點。“即使是四級數(shù)據(jù)中心,也無法保證其設(shè)計的100%正確、減輕冷卻等經(jīng)營風(fēng)險,”Noble說。隨著數(shù)據(jù)中心密度上升,監(jiān)控系統(tǒng)與數(shù)據(jù)中心基礎(chǔ)設(shè)施管理(DCIM)技術(shù)在確保熱管理、能效與資源使用效益計算上就能產(chǎn)生客觀的價值了。

注意軟件授權(quán)限制 數(shù)據(jù)中心的密度肯定會增加,因為虛擬化可以最大化利用先進的X86和ARM處理器。但是,專家也指出,硬件的密度與可用率可能受到軟件授權(quán)限制,而且存在軟件維護周期的限制。

“虛擬化服務(wù)器會消耗更多軟件許可,因為它們更容易啟動,保持未使用的情況還可能更長,”Noble說,“但它們?nèi)匀恍枰浖S護和補丁更新,不管它們是否有在使用。”隨著數(shù)據(jù)中心增長與工作負(fù)載密度增加,許可授權(quán)與補丁通??梢酝ㄟ^系統(tǒng)管理工具解決,這些工具還可以協(xié)助IT人員進行虛擬機生命周期與補丁管理,緩解工作壓力。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號