在本系列文章中,我們將把關注重點聚焦于開源數(shù)據(jù)中心。從來自Facebook的開放計算項目(Open Compute Project)的數(shù)據(jù)中心每個物理層的創(chuàng)新,到由應用程序容器所推動的開發(fā)人員們處理IT基礎架構方式的革命,開源正在改變數(shù)據(jù)中心的整個堆棧。今年三月,Data Center Knowledge網(wǎng)站的記者們瞄準了這其中的一些變化,以便幫助廣大讀者朋友們更好地了解開源數(shù)據(jù)中心的普及狀況。
本文是我們對Amir Michael訪談實錄的第二部分,在過去十年中,他大部分時間致力于世界上最大的數(shù)據(jù)中心服務器的設計,首先是Google,然后是Facebook。他是開放計算項目(Open Compute Project)的創(chuàng)始人之一,該項目是由Facebook主導的開源硬件和數(shù)據(jù)中心設計社區(qū)。
今天,Amir Michaell是Coolan公司的創(chuàng)始人兼首席執(zhí)行官。Coolan公司是一家初創(chuàng)企業(yè),該公司旨在幫助數(shù)據(jù)中心運營商們更明智的作出硬件采購的決定,并通過借助大數(shù)據(jù)分析,使他們的數(shù)據(jù)中心更高效和更有彈性。
Data Center Knowledge:您開創(chuàng)Coolan公司時的最初的想法是怎樣的呢?
Amir Michael:在Facebook時,我的團隊部署構建了大量的服務器,多達數(shù)十萬臺。當我們部署構建服務器時,我們將這些服務器安置在數(shù)據(jù)中心,然后又開始投入下一代服務器的設計工作,但卻從沒有真正回頭來看看我們在設計過程中所做出的決定在實際操作中是怎樣的。
我們曾經(jīng)決定采購高級的內存,并為此支付更多的成本,因為我們認為這一舉措不會失敗。我們還做了一些設計決策,我們認為這些決策會從成本權衡的角度使系統(tǒng)或多或少變得更為可靠,但事實上,我們從來沒有在這些服務器的實際操作運行過程中真正測量過。
我們總是圍繞購買什么類型的組件或系統(tǒng)來做出決策,并嘗試決定是否為企業(yè)類型的組件支付更多,或者我們可以采用一款消費類型的組件。新的技術,特別是進入數(shù)據(jù)中心領域的新技術,圍繞著其可靠性方面并沒有什么好信息。而我們彼時也并沒有相應的跟蹤記錄。
Coolant公司的聯(lián)合創(chuàng)始人兼首席執(zhí)行官,以及開放計算項目的聯(lián)合創(chuàng)始人Amir Michael在拉斯維加斯舉行的全球數(shù)據(jù)中心世界大會上發(fā)表演講。
當我在Facebook供職時,我開始反思回顧:“我們曾經(jīng)做出的所有這些決策的運營成本到底是怎樣的?”我們在這些方面其實并沒有掌握太多的數(shù)據(jù)。我開始跟業(yè)界的同行們說,“我們來比較說明一下吧。您的服務器設計失敗率較之我的服務器設計失敗率是什么樣的?而我們都沒有掌握很多這方面的信息,因為這個行業(yè)的很多人都沒有真正’實際測量’過。”
而我們創(chuàng)建Coolan公司的最初的想法是想要打造一個平臺,使人們可以很容易地關于他們的操作、關于故障率、關于組件的質量、關于他們正在產(chǎn)生的錯誤、關于他們的服務器所運行的環(huán)境等等數(shù)據(jù)進行共享,不僅包括設備的利用率,還包括它們周圍的物理環(huán)境,并使其盡可能容易地做到這一點,人們可以擁有這些豐富的數(shù)據(jù)集,我們將為他們進行收集和分析。
一旦您企業(yè)擁有了這一大的數(shù)據(jù)集,我們不僅能夠測量貴公司的基礎設施并進行基準測試判定,現(xiàn)在我們可以讓他們與同行業(yè)進行比較。您企業(yè)基礎設施的故障率較低,究其原因就在于:您企業(yè)組織的相關基礎設施是在最佳溫度環(huán)境下運行的,您的固件是最新的版本,其更加穩(wěn)定?,F(xiàn)在,我們有了這種類型的比較,我們在行業(yè)中添加了一個全新的透明層,使得企業(yè)客戶可以根據(jù)實際數(shù)據(jù),充分知情的做出相應的決策,而不是猜測什么組件適合他們。
一旦您企業(yè)掌握了這些數(shù)據(jù),您就會很快地了解哪些供應商是最適合您企業(yè)的,而哪些則不適合您企業(yè),進而使得您企業(yè)在作出涉及大量的資金開支的部署決策時,能夠更明智。
這為整個行業(yè)增加了一個全新的透明度,而這恰恰是我在Facebook時非常想要的。我想知道我是應該選擇X供應商還是Y供應商,當被問道關于供應商產(chǎn)品的質量時,我并沒有太多的信息,您也就無法從我這里得到一個好的答案。他們會給您一些他們用來計算平均故障間隔時間的數(shù)學公式,但這些公式其實并沒有真正體現(xiàn)出其與運行現(xiàn)場的關系。
Data Center Knowledge:數(shù)據(jù)中心行業(yè)可靠性的概念通常是圍繞硬件的,無論是電氣和機械基礎設施還是IT設備。而在網(wǎng)絡規(guī)?;氖澜缰?,更多的則是關注于軟件程序的編寫,使之能夠承受硬件故障。那么,物理基礎設施的冗余是否已過時了呢?
Amir Michael:我的理論是,建立可靠性的數(shù)據(jù)中心最昂貴的方法是通過硬件。如果您企業(yè)要使用諸如冗余UPS、冗余電源、冗余風扇等等任何需要您添加額外物理組件的東西,那么,這都將會是一個非常昂貴的命題,實際上會在某種程度上降低了可靠性。
RAID卡是一個很好的例子。您企業(yè)數(shù)據(jù)中心是否想要備份您的儲存?您是否想要能夠維持故障驅動器的運行呢?所以,這樣的話您企業(yè)數(shù)據(jù)中心就需要添加一個新的組件。但是當新添加的該組件也發(fā)生故障失敗了呢。RAID卡也經(jīng)常會發(fā)生故障失敗。這意味著什么呢?在某些情況下,您實際上降低了系統(tǒng)的可靠性,因為現(xiàn)在,如果您的RAID卡發(fā)生故障失敗,您所失去的就不僅僅只是一個驅動器,而是失去所有的驅動器了。
但與此同時,我也明白為什么人們會這樣做。舊的應用程序的設計不具備橫向擴展的設計部署。他們不是為了系統(tǒng)發(fā)生故障失效后繼續(xù)維持運行而設計的,因此在企業(yè)客戶中時常發(fā)生關鍵系統(tǒng)一旦發(fā)生故障,就會其失去了一個完整的應用程序的狀況。
解決方案并是不修改軟件;而是修改后面的硬件,這是一條成本代價更昂貴的路線。今天,任何現(xiàn)代軟件架構都會假設系統(tǒng)發(fā)生故障的情況。因為無論您想要構建的系統(tǒng)多么可靠,其都會不可避免的發(fā)生故障失敗。您數(shù)據(jù)中心只能是盡可能的減少其發(fā)生的頻率,但其肯定是會發(fā)生的。
而且我也的確看到過一些故障失敗發(fā)生的情況。即使是最可靠的系統(tǒng)也會發(fā)生故障失敗。所以這就是我最初的理念需要更多的發(fā)揮作用的地方了。您數(shù)據(jù)中心如何建立更具彈性的軟件,以便能夠抵御系統(tǒng)故障?除此之外,您數(shù)據(jù)中心如何抵御機架級的故障?如何抵御整個設施所發(fā)生的故障失敗,而不僅僅是傳統(tǒng)的災難恢復?
一旦您數(shù)據(jù)中心實現(xiàn)了這一點,您就可以去掉很多的冗余了。使得您能夠構建一款更經(jīng)濟,更高效的系統(tǒng),而且這是通過軟件的修改而實現(xiàn)的。這才是思考這一解決方案的正確的方式。
Data Center Knowledge:在新聞報道中,超大規(guī)模數(shù)據(jù)中心運營商傾向于集中成為一個團體,這意味著他們是以某種特定的方式設計和運營他們的基礎設施,而且這些運營商們在所有這些方面幾乎是一樣的。但事實并不是這樣的,例如,F(xiàn)acebook的超大規(guī)模數(shù)據(jù)中心運營方法就與eBay有很大的不同,F(xiàn)acebook使用相對較低的功率密度設計,而eBay則是盡可能采用使得其密度達到最大化的方法。鑒于此,是否在所有超大規(guī)模運營商之間存在著一套共同的最佳實踐方案呢?
Amir Michael:對于超大規(guī)模的數(shù)據(jù)中心運營商們而言,有一套最佳實踐方案是幾乎每家超大規(guī)模的數(shù)據(jù)中心運營商都應該采用的,即:密封遏制(containment)、高效的電力資源分配、高效的電源供應。這些在超大規(guī)模數(shù)據(jù)中心操作運營空間都是廣為人知的。
還有很多的討論是圍繞著這樣的密度才是最為恰當?shù)摹τ诓煌拇笮突A設施運營商而言,他們的數(shù)據(jù)中心運營環(huán)境仍各有不同。某些企業(yè)還采用了主機托管,也許他們是出租了其整幢大樓,但他們同時也從其他運營商處租賃服務。而且還有的企業(yè)能夠以非常低的成本建立數(shù)據(jù)中心。他們已經(jīng)把他們的數(shù)據(jù)中心設施的成本降到最低了。
這些不同的要求將導致他們需要構建不同的服務器。您數(shù)據(jù)中心有一個團隊構建功率密度相當?shù)偷臋C架。然后可能您又走了另一個極端,即數(shù)據(jù)中心管理人員將機架設置為非常大的密度,并表示機架成本是相當昂貴的,數(shù)據(jù)中心也是昂貴的。故而讓我們獲得盡可能多的IT設備,并盡可能充分的利用這些設備吧。
高密度也有其另一面。其會使得您企業(yè)數(shù)據(jù)中心受到一定的約束。當您構建一款非常密集的服務器時,將很多組件打包進去,那么當對其實施冷卻時,就會成為一項挑戰(zhàn)了。這就像通過一個非常薄的吸管吸空氣一樣。您要花很多精力去做這件事,而如果您的機架密度不那么致密,會更容易推動冷卻空氣的通過。
這方面顯然會有一些益處,其將取決于成本模型。您數(shù)據(jù)中心想要大量的密度,這樣您可以將您的數(shù)據(jù)中心成本攤銷到更多的機器上,但同時您企業(yè)所支付的冷卻成本也將上升?或者您想要一款便宜的設施,這樣使得您企業(yè)可以自行打造東西,坦白地說使得設計更容易,而機架密度不是那么致密,這樣冷卻也會更有效?;蛘吣梢允褂孟?.5U,2U高的散熱器,這是非常高效的,易于冷卻,僅僅只需要很少的風扇功率。
一些運營商,比如eBay,選擇了采用高密度,這造成了很多挑戰(zhàn),我并不知道全面的情況,但是如果我把他們的數(shù)據(jù)中心和Facebook的成本模型進行比較,那種類型的密度對我們來說并不那么有吸引力,因為您需要為建造密集機架付出額外的開銷。
您數(shù)據(jù)中心的服務器有許多重要部分實際上是為您工作的,包括諸如:CPU、DRAM、存儲。這就是您想要所有電力資源所去到的地方。您希望這些設備能夠消耗您數(shù)據(jù)中心的90%的電力資源,因為那些設備實際上是為您的企業(yè)工作服務的。但是,如果您數(shù)據(jù)中心的構建過于密集,您將需要把大量的能量消耗轉移到冷卻系統(tǒng)。這樣的話,就顯然不是一款高效的系統(tǒng)了。
關于作者
本文作者Yevgeniy Sverdlik是舊金山的商業(yè)和技術記者。Data Center Knowledge網(wǎng)站的主編,其專欄文章主要覆蓋全球數(shù)據(jù)中心行業(yè)。