時(shí)至今日,數(shù)據(jù)中心的建設(shè)已經(jīng)從最早的消除信息孤島,再到數(shù)據(jù)大集中,發(fā)展至今已經(jīng)開始向應(yīng)用集中與自動(dòng)化交付方向邁進(jìn),這也是表明了私有云的最終目的——在基礎(chǔ)架構(gòu)的整合基礎(chǔ)上,進(jìn)一步向應(yīng)用平臺整合與全局資源管理的模式演進(jìn)。
而推動(dòng)數(shù)據(jù)中心向私有云演進(jìn),則需要全方面的考慮數(shù)據(jù)中心的各個(gè)組成部分,包括服務(wù)器、存儲(chǔ)、網(wǎng)絡(luò)等,才能消除云計(jì)算解決方案所面對的多種瓶頸。本文中我們主要從上述三方面來解讀云計(jì)算對數(shù)據(jù)中心均衡性的需求。
首先來說服務(wù)器和數(shù)據(jù)中心虛擬化的關(guān)系——x86平臺的虛擬化技術(shù)經(jīng)過多年的發(fā)展,已經(jīng)比較成熟了,從CPU、I/O到網(wǎng)絡(luò),都出現(xiàn)了虛擬化加速技術(shù),便利虛擬化開銷所造成的性能下降越來越小,而x86平臺能提供的系統(tǒng)資源則越來越多。
比如內(nèi)存容量,以單條DIMM 8GB計(jì)算,至強(qiáng)5600平臺可達(dá)144GB,而對于4插槽至強(qiáng)7500平臺,可達(dá)256GB,8插槽時(shí)可達(dá)512GB,這在以往是不可想像的。而內(nèi)存的擴(kuò)展能力,再加上RAS特性上的差異,也就決定了兩者的虛擬化平臺的側(cè)重點(diǎn)。一些廠商的測試表明,4插槽的256GB至強(qiáng)7500服務(wù)器已經(jīng)能很好的支持16個(gè)配置為16GB內(nèi)存+4個(gè)虛擬機(jī)CPU的SQL虛擬機(jī),并且可以靈活的變更為4個(gè)內(nèi)存為64GB的SQL虛擬機(jī),這種靈活性與可伸縮性也是虛擬化平臺的典型好處。當(dāng)然,每個(gè)企業(yè)的情況并不一樣,到底性能能否滿足你的要求,最好還是找系統(tǒng)供應(yīng)商進(jìn)行具體的測試驗(yàn)證。
另一方面,高端服務(wù)器也可能在某些領(lǐng)域反其道而行,進(jìn)入中低端服務(wù)器的領(lǐng)地,比如桌面虛擬化,前端桌面的虛擬化必然要對后臺的應(yīng)用虛擬化與桌面交付提出新的需求,而一臺4插槽至強(qiáng)7500服務(wù)器所支撐的虛擬桌面數(shù)量至少是至強(qiáng)5600的兩倍,并且可以負(fù)載更重量級的應(yīng)用虛擬機(jī)。
以英特爾至強(qiáng)為基礎(chǔ)的服務(wù)器平臺雖然可以滿足數(shù)據(jù)中心虛擬化對性能的需求,然而很多CIO都頭疼的問題在于高密度計(jì)算條件下數(shù)據(jù)中心存儲(chǔ)帶來的瓶頸——這里的瓶頸不是容量,而是I/O瓶頸。
盡管有磁盤陣列等方式提升后端存儲(chǔ)的I/O性能,但從私有云應(yīng)有的整合度和靈活性上看,I/O問題必須有緩沖層來做緩解——英特爾的專家團(tuán)隊(duì)表示,SSD固態(tài)硬盤將幫助企業(yè)解決數(shù)據(jù)中心的I/O問題。
試想一個(gè)物理盤陣上劃分著數(shù)個(gè)虛擬磁盤,有的負(fù)責(zé)數(shù)據(jù)庫操作,有的負(fù)責(zé)視頻流服務(wù),有的則對應(yīng)著隨機(jī)搜索服務(wù)——SSD將完美的解決這種虛擬架構(gòu)帶來的隨機(jī)數(shù)據(jù)讀寫操作。英特爾認(rèn)為SSD固態(tài)硬盤目前最大的應(yīng)用前景在于互聯(lián)網(wǎng)企業(yè)數(shù)據(jù)中心的高速緩存和云計(jì)算中心的緩沖層。如上圖是一個(gè)典型的云計(jì)算配置,緩沖層將對云計(jì)算和數(shù)據(jù)中心的數(shù)據(jù)處理帶來重要的變革作用。英特爾認(rèn)為在云計(jì)算數(shù)據(jù)中心中配置緩存陣列的緩沖服務(wù)器能夠很好的滿足緩沖層的需求。
目前英特爾為了滿足數(shù)據(jù)中心緩沖層的需求,聯(lián)合IBM公司共同推出了緩沖服務(wù)器Schooner。Schooner緩沖服務(wù)器專門為云計(jì)算數(shù)據(jù)中心而設(shè)計(jì),由于利用英特爾固態(tài)硬盤組成閃存陣列,因此服務(wù)器在性能上得到很大提升。
那么除卻計(jì)算和后端存儲(chǔ)之外,中間還有一處瓶頸是互聯(lián)——網(wǎng)絡(luò)I/O問題如何解決呢?
如果數(shù)據(jù)中心還采用古老的千兆以太網(wǎng)做鏈路交換的話,那么網(wǎng)絡(luò)I/O瓶頸顯而易見。而改用光纖之后,F(xiàn)CoE成為目前較主流的解決方案,卻面臨著高成本的困擾。而英特爾主推的萬兆以太網(wǎng)和未來的40Gbit以太網(wǎng)則可以輕松解決數(shù)據(jù)中心虛擬化整合帶來的I/O問題。
這主要源自兩個(gè)方面的原因,首先是硬件層面的:英特爾的高端萬兆以太網(wǎng)產(chǎn)品包括82599萬兆以太網(wǎng)控制器和萬兆iWARP網(wǎng)卡。82599通過中斷速率調(diào)整和隊(duì)列到核的映射來優(yōu)化低延遲。萬兆iWARP網(wǎng)卡通過RDMA技術(shù)實(shí)現(xiàn)可靠通信路徑,支持IP管理控制臺,支持多地點(diǎn)數(shù)據(jù)中心子網(wǎng)尋址等。”
另一方面,英特爾的萬兆以太網(wǎng)控制器可以整合局域網(wǎng)和存儲(chǔ)區(qū)域網(wǎng)絡(luò)的流量,開放式以太網(wǎng)光纖通道具有出色的可靠性,智能FCoE卸載功能支持更高的線速吞吐量,同時(shí)可能降低CPU利用率。
此外,英特爾VT-c硬件虛擬化技術(shù)則可以完美的解決虛擬機(jī)之間的通訊問題,提升整體I/O吞吐量。VT-c包含了兩大技術(shù):第一是VMDq技術(shù),它提高網(wǎng)絡(luò)性能并降低虛擬化環(huán)境中的CPU利用率。VMDq利用了網(wǎng)絡(luò)設(shè)備中的多項(xiàng)隊(duì)列技術(shù),通過在網(wǎng)卡中進(jìn)行數(shù)據(jù)分類來降低虛擬化服務(wù)器中hypervisor的I/O開銷。有了VMDq,數(shù)據(jù)包進(jìn)入網(wǎng)絡(luò)適配器的時(shí)候被分類,目的地相同的數(shù)據(jù)包被分到一起,然后這些數(shù)據(jù)包被發(fā)送到VMM中,hypervisor再將其直接指向各自的目的地。
綜上可以看出,英特爾正在從一個(gè)領(lǐng)先的服務(wù)器技術(shù)公司轉(zhuǎn)變?yōu)橐粋€(gè)全面的數(shù)據(jù)中心提供商,提供計(jì)算、存儲(chǔ)和網(wǎng)絡(luò)構(gòu)件。而用戶則可以更進(jìn)一步的通過英特爾提供的計(jì)算平臺、存儲(chǔ)和網(wǎng)絡(luò)等產(chǎn)品優(yōu)化數(shù)據(jù)中心,轉(zhuǎn)型成更加靈活平衡的云計(jì)算中心。