由于英特爾試圖與Nvidia共同分享正處于快速增長的服務(wù)器AI芯片市場,英特爾渴望其產(chǎn)品能夠涵蓋幾乎所有可能的類別。
Nervana Systems是英特爾2016年收購的AI芯片創(chuàng)業(yè)公司,我最近有機會拜訪其位于圣地亞哥的辦事處。Nervana Systems被收購以后,完成了大部分與AI相關(guān)的芯片和軟件研發(fā)工作。在本次會面上,我見到了英特爾人工智能軟件和研究副總裁Arjun Bansal和英特爾AI研究組高級總監(jiān)Casimir Wierzynski。
服務(wù)器AI芯片市場的市場地位
用于處理數(shù)據(jù)中心內(nèi)部深入學(xué)習(xí)工作負荷的芯片市場可分為兩組:
強大的計算系統(tǒng)所使用的芯片,可以訓(xùn)練人工智能模型來做一些事情,比如理解語音命令,檢測照片中的物體,或者幫助一輛汽車在城市街道上行駛。
運行經(jīng)過培訓(xùn)的AI模型與新數(shù)據(jù)和新內(nèi)容的芯片,例如移動應(yīng)用程序的請求,以幫助處理語音命令或提供個性化的新聞飼料內(nèi)容。這種活動被稱為“推理”,其計算要求遠低于培訓(xùn)要求,可以由服務(wù)器和最終用戶硬件(如電話、個人電腦和汽車)來處理。
雖然競爭開始有所增加,很大比例的AI培訓(xùn)工作是由Nvidia的Tesla服務(wù)器GPU系列來處理。但是,在以前,這項工作通常是由英特爾的Xeon服務(wù)器CPU來完成的。然而,越來越多的推理工作正在由Nvidia GPU來完成,可編程芯片(FPGA)則采用英特爾和Xilinx的產(chǎn)品,定制設(shè)計的芯片(ASIC)則采用,如Alphabet / Google的Tensor Processing Units(TPU - 它們也可用于培訓(xùn))和Amazon.com的新AWS Propferentia芯片。
英特爾的服務(wù)器AI芯片戰(zhàn)略
鑒于Nvidia的服務(wù)器AI芯片的工作完全圍繞GPU進行,其特點是針對人工智能工作負載進行專門的處理(它們是眾所周知的AST),英特爾計劃支持一系列廣泛的芯片。其當前和計劃的服務(wù)器AI產(chǎn)品包括:
NNP-L1000和NNP-I,一對Nervana ASIC,分別用于訓(xùn)練和推理。兩者都承諾在今年晚些時候投入生產(chǎn)。Facebook一直是英特爾AI ASIC的開發(fā)合作伙伴。
可用于推理的FPGA。微軟和百度使用英特爾的FPGA進行人工智能工作。
服務(wù)器GPU陣容。該公司的第一臺服務(wù)器GPU預(yù)計將在2020年推出。
DL Boost,一組旨在提高Xeon CPU推理性能的技術(shù)。英特爾最近發(fā)布的Cascade Lake Xeon CPU 引入了DL Boost的第一個版本。
當被問及NNP-L1000相對于Nvidia的Tesla GPU等產(chǎn)品的競爭優(yōu)勢時,Bansal地指出該芯片是從頭開始設(shè)計的,用于訓(xùn)練AI /深度學(xué)習(xí)模型,因此不需要關(guān)注與圖形相關(guān)的功能。他介紹道:“我們不必在與圖形相關(guān)的計算上花費任何芯片面積。”
他還指出,由于NNP-L1000獨特的處理架構(gòu)(它依賴于稱為bfloat16的多種編碼格式),該芯片可以使用16位乘法器電路來提供與GPU所需的32位乘法器相當?shù)男阅堋_@導(dǎo)致更小且功率更高的乘法器,并且(因為乘法器需要一半的數(shù)據(jù))使芯片的有效存儲器帶寬加倍。
類似地,Bansal認為,在推理領(lǐng)域,NNP-I相對于FPGA“從功率性能角度來看”將具有很強的競爭力,并為機器翻譯,語音識別和推薦系統(tǒng)等工作負載提供強大的性能。與此同時,他指出,由于能夠重新配置以處理新任務(wù),一些客戶仍然會更喜歡FPGA。
當被問及英特爾如何看待服務(wù)器CPU被用于推斷時,因為對加速器的需求有所增長,他建議公司仍將使用空閑CPU容量進行推理工作。他指出:“人們有時會有很多休眠(服務(wù)器)容量”
軟件的重要性
除了大量的芯片研發(fā)投資外,Nvidia在AI培訓(xùn)芯片市場的主導(dǎo)地位與其構(gòu)建的開發(fā)者生態(tài)系統(tǒng)有很大關(guān)系。該生態(tài)系統(tǒng)以公司的CUDA編程模型和相關(guān)的CUDA深度神經(jīng)網(wǎng)絡(luò)(cuDNN)軟件庫為基礎(chǔ),該軟件庫支持最流行的深度學(xué)習(xí)軟件框架(以及一些不太流行的軟件框架)。
雖然它已經(jīng)創(chuàng)建了針對其CPU優(yōu)化的深度學(xué)習(xí)軟件庫,英特爾想要削減Nvidia龐大的開發(fā)者意識共享的策略,并不是圍繞著創(chuàng)建一個直接針對Cuda和Cuda的競爭對手,而是在推動采用一種名為nGraph的解決方案。nGraph是一個編譯器 - 一個將編程語言中的代碼轉(zhuǎn)換為可由處理器執(zhí)行的機器代碼的程序 - 旨在與各種處理器類型的各種深度學(xué)習(xí)框架(Xeon CPU,Nervana ASIC和甚至是Nvidia GPU),用于培訓(xùn)和推理工作。
英特爾認為,由于許多AI軟件框架已針對特定類型的處理器(在許多情況下是Nvidia的GPU)進行了優(yōu)化,所以,將依賴于一種類型的處理器的AI模型移植到另一種類型的處理器上來說,這通常太困難了,而且要讓一個模型在不同的框架上運行也太難了。英特爾稱,nGraph消除了這些挑戰(zhàn)。
在公司僅依賴于一種處理架構(gòu)的情況下,手動優(yōu)化的AI軟件庫可能是有效的,但當公司使用三種或四種架構(gòu)時,它們有可能失效。Bansal斷言。“擁有三四個架構(gòu)的優(yōu)勢肯定大于只擁有一種架構(gòu)。”
當然,英特爾面臨的挑戰(zhàn)是讓企業(yè)和云巨頭相信,在很多企業(yè)完全依賴Nvidia的GPU進行AI培訓(xùn)的時候,他們應(yīng)該使用多個架構(gòu)。如果一家公司選擇僅僅依靠Nvidia的GPU進行培訓(xùn),它可能會堅持使用Nvidia廣泛支持的軟件工具。另一方面,如果人工智能培訓(xùn)芯片市場開始崩潰,那么英特爾對nGraph的銷售推動力將變得更加強大。
另外,Wierzynski指出,英特爾還投資于解決人工智能隱私問題的軟件解決方案,例如用于處理加密AI數(shù)據(jù)的開源解決方案。他為解決方案提供了一個用例:醫(yī)院可以將加密數(shù)據(jù)發(fā)送給遠程工作的放射科醫(yī)師,無需共享患者信息,放射科醫(yī)師可以將他或她的答案的加密版本發(fā)送回醫(yī)院。
大局
Nvidia不太可能很快放棄目前在AI培訓(xùn)處理器市場上的領(lǐng)先優(yōu)勢,特別是考慮到它也在該領(lǐng)域投入巨資。雖然服務(wù)器推理處理器市場競爭更加激烈,但英特爾可能會成為與Nvidia和Xilinx一樣強大的玩家。
英特爾確實擁有獨特的芯片和軟件戰(zhàn)略來增加其AI加速器的銷售額,并且顯然將其資金投入其中。盡管他們的確切性能和耗電量還有很多需要分享的地方,但這家公司的神經(jīng)網(wǎng)絡(luò)ASIC正從地面上建立起來,以處理AI的工作,這一事實可以幫助他們?nèi)〉贸晒Α?br />
本文來自半導(dǎo)體行業(yè)觀察微信號,本文作為轉(zhuǎn)載分享。
-
FPGA
+關(guān)注
關(guān)注
1630文章
21798瀏覽量
606048 -
英特爾
+關(guān)注
關(guān)注
61文章
10009瀏覽量
172340 -
NVIDIA
+關(guān)注
關(guān)注
14文章
5076瀏覽量
103729 -
AI芯片
+關(guān)注
關(guān)注
17文章
1906瀏覽量
35217
發(fā)布評論請先 登錄
相關(guān)推薦
評論