AI就是下一代計算,Nvidia制定了清晰的AI戰(zhàn)略,它用歷史數(shù)據(jù)來認證自己的觀點:GPU已經(jīng)打破摩爾定律設置的障礙。有些人甚至開始高呼“黃仁勛定律”。黃仁勛正是Nvidia的創(chuàng)始人。在過去3年里,Nvidia營收翻了一倍,股價更是上漲10倍。
以前,在英特爾眼里Nvidia只是小角色,向自己的PC伙伴提供小眾產(chǎn)品,一夜之間,它成為新市場舉足輕重的玩家,而英特爾卻呆呆旁觀。
巨人已經(jīng)覺醒。英特爾明確向世人暗示,在AI市場,它不會重蹈移動市場一樣的錯誤,不會將AI市場割讓給對手。英特爾已經(jīng)知道,AI是數(shù)據(jù)中心業(yè)務增長的關鍵,在未來5年里,AI芯片銷售額的年復合增長率估計會達到30%。
正因如此,在最近的數(shù)據(jù)中心創(chuàng)新峰會(Data-Centric Innovation Summit)上,英特爾才會高調(diào)進軍AI芯片市場,還說去年公司的AI芯片營收已經(jīng)達到10億美元。
AI芯片市場不只有GPU還有其它
Nvidia刻意強調(diào)說,目前的AI發(fā)展以是GPU作為根基的,它的說法有相當高的可信度,但是忽視了一些事實。
按照英特爾的解釋,這種說法最大的問題在于忽視了AI軟件與GPU硬件的融合,AI運行是相當復雜的,不可能一招通吃,所以上述論斷過于簡單。
英特爾AI產(chǎn)品集團主管 Naveen Rao曾經(jīng)在博客中指出,近幾年AI取得成功主要依賴三大支柱:一是軟件工具的優(yōu)化和成熟,二是硬件更加出色(多種形式的硬件,不限于GPU),三是研發(fā)生態(tài)系統(tǒng)欣欣向榮,而且許多時候還是開源的。
Naveen Rao進一步強調(diào)說:
“客戶發(fā)現(xiàn),沒有什么單一的好硬件可以應付各種各樣的應用,因為AI的類型不是單一的。受到應用的限制,從數(shù)據(jù)中心到邊緣設備,需要的能力各有不同,所以我們需要多種多樣的硬件組合形式。覆蓋多種多樣的應用,就可以為英特爾客戶帶來最高的投資回報。”
深度學習模式越來越復雜,需要強大的并行處理能力,不過Naveen Rao認為,它只是AI軟件生命周期的一部分。
聯(lián)想一名AI高管曾經(jīng)在文章中介紹說,從構(gòu)想到部署,總個周期相當漫長,涉及到規(guī)劃、數(shù)據(jù)收集、驗證,開發(fā)部署模型時也要經(jīng)歷這樣的流程。
Naveen Rao在峰會上曾表示,AI的執(zhí)行環(huán)境多種多樣,有小設備,比如物聯(lián)網(wǎng)傳感器和手機,也有自動駕駛汽車,遠程設備,它們處在網(wǎng)絡邊緣,還有分散系統(tǒng),比如云數(shù)據(jù)中心。
英特爾AI戰(zhàn)略的基石是“寬度”,就是說英特爾有多種多樣的技術(shù),可以用在多種多樣的環(huán)境中使用,另外,英特爾還向開源項目投資,增強軟件性能,提高開發(fā)者的生產(chǎn)力。
按照Naveen Rao的說法,英特爾AI戰(zhàn)略會用“三條腿”走路:一是工具(軟件),二是硬件,三是社區(qū)(開發(fā)者生態(tài)系統(tǒng))。 從英特爾的AI產(chǎn)品組合可以看出,它能滿足各種需要,無論是端點、邊緣系統(tǒng)還是數(shù)據(jù)中心,都可以使用英特爾產(chǎn)品。在英特爾帝國內(nèi)已經(jīng)有許多AI技術(shù),有些是英特爾自己開發(fā)的,有些是收購的,比如:
——低能耗Atom處理器,內(nèi)置Movidius視覺處理單元(VPU),用于物聯(lián)網(wǎng)和移動設備。
——Mobileye先進駕駛員輔助系統(tǒng)(ADAS)和EyeQ芯片,用于無人駕駛汽車。
——桌面及移動x86處理器,內(nèi)置GPU、GNA神經(jīng)網(wǎng)絡協(xié)處理器和Inference Engine加速技術(shù)。
——基于Altera開發(fā)的FPGA,它既給低能耗嵌入式系統(tǒng)用(Arria 系列產(chǎn)品),也給高性能數(shù)據(jù)中心用(Stratix系列產(chǎn)品),在實時數(shù)據(jù)評估中,可以加速深度學習模型的執(zhí)行速度。Altera是英特爾收購而來的。
——Nervana神經(jīng)網(wǎng)絡處理器,它用高性能、靈活的GPU處理相同類型的模型訓練和推斷任務。
——Xeon Scalable x86處理器,用于執(zhí)行一般任務,訓練輕量級AI模型,完成繁重的模型推斷工作。
產(chǎn)品消息不多
在峰會上,英特爾的重點只是講述戰(zhàn)略,所以沒有過多談到產(chǎn)品,這也是情理之中的事。不過在會議上英特爾的確談到一些新AI技術(shù),以及升級的AI技術(shù),具體有如下幾種:
——DL Boost x86指令,通過支持低精度16位浮點運算,它可以讓深度學習運算加速,與AVX-512指令是兼容的。
——VNNI指令集(Vector Neural Network Instruction),它相當于AVX-512的擴展指令,通過支持8位乘法和32位加法,可以讓深度神經(jīng)網(wǎng)絡訓練進一步加速。Cooper Lake Xeon處理器將會引入DL Boost和VNNI,新處理器2019年推出,它是Cascade Lake的接班人。
——nGraph編譯器,它可以優(yōu)化AI代碼,方便代碼應用于不同的硬件平臺。nGraph支持多種技術(shù)開發(fā)的模型。
——升級MKL-DNN數(shù)學庫,改進矩陣乘法性能。
——展示Nervana NNP L-1000 神經(jīng)處理器,它的目標是挑戰(zhàn)GPU,幫助數(shù)據(jù)中心完成深度學習任務。
英特爾數(shù)據(jù)中心CPU架構(gòu)主管 Sailesh Kottapalli介紹說,除了提升矩陣乘法計算能力,支持低精度和混合精度運算,未來Xeon處理器還會增加各個層級的緩存大小,擴充存儲帶寬,縮短延遲時間。所有這些都會提升AI性能,讓通用CPU有能力替代GPU,完成許多工作。
最好的思考
英特爾收購了許多AI企業(yè),比如Nervana,Movidius、Mobileye,最近還收購了Vertex.ai,這樣英特爾就可以制定連貫的策略,解決各種AI問題。
因為AI工作多種多樣,運行AI軟件時設備的資源受到限制,所以英特爾擁有多種組合產(chǎn)品還是蠻重要的。不過英特爾的戰(zhàn)略橫跨幾個處理器架構(gòu)和指令集,所以優(yōu)化工作必須做好。
Nvidia的產(chǎn)品沒有英特爾那么豐富,它的GPU分成大中小三等,分別是Volta、Xavier和Jetson,都用到了CUDA編程平臺。雖然Nvidia擁有先發(fā)優(yōu)勢,但是隨著時間的推移,它的優(yōu)勢會削弱,因為開發(fā)者會接受更加先進的AI框架,比如TensorFlow,先進框架可以讓開發(fā)者瞄準其它平臺。
另外,Nvidia的神經(jīng)網(wǎng)絡優(yōu)化GPU(配有Tensor內(nèi)核)性能不錯,現(xiàn)在還有優(yōu)勢,但是未來優(yōu)勢會縮小,因為下一代英特爾Xeon處理器推出之后,x86系統(tǒng)的性能會進一步提升,可以幫助數(shù)據(jù)中心做更多的事情。
英特爾說去年它的AI芯片銷售額達到10億美元,如果數(shù)據(jù)是真實的,我們可以斷言英特爾已經(jīng)在早期贏得許多企業(yè)的支持,在飛速膨脹的市場,它已經(jīng)成為重要的競爭者。
就眼下來說,在硬件和軟件工程方面,英特爾需要將關鍵工作做好,然后將各部分融合,將產(chǎn)品拋向市場,讓購買者無法抗拒誘惑。
整個市場都對Nvidia入迷,不過如果認為英特爾已經(jīng)失敗,無力反擊,那就大錯特錯了。