亞馬遜宣布將人工智能處理遷移到自家定制的 AWS Inferentia 芯片。這意味著亞馬遜最大的推理(inferencing)服務(wù)(例如語音助手 Alexa)將交由更快、更專業(yè)的芯片進行處理,而非基于 NVIDIA 的多用途 GPU。
亞馬遜已經(jīng)將大約 80% 的 Alexa 語音助手處理遷移到 Elastic Compute Cloud (EC2) Inf1 實例上處理。和使用傳統(tǒng) GPU 的 G4 實例相比,Inf1 實例將吞吐量提高了 30%,成本下降了 45%。亞馬遜認為,它們是推斷自然語言和語音處理工作負載的最佳實例。
Alexa 的工作方式是這樣的:實際的智能音箱(或者揚聲器)可以不做任何操作,所有任務(wù)都交由 AWS 處理器完成。或者更準確的說,一旦 Echo 設(shè)備上的芯片檢測到喚醒詞,系統(tǒng)就會啟動。。它開始實時將音頻流傳輸?shù)皆啤T跀?shù)據(jù)中心的某個地方,音頻被轉(zhuǎn)換為文本(這是推理的一個示例)。然后從文本中提取含義(另一個推理實例)完成所需要的所有操作,例如獲取當天的天氣信息等等。
Alexa 完成您的請求后,她需要將答案傳達給您。然后,腳本被轉(zhuǎn)換為音頻文件(另一個推理示例),并發(fā)送到您的Echo設(shè)備。回音播放文件,以便于你出行的時候是否決定帶上雨傘。顯然,推理是工作的重要組成部分。毫不奇怪,亞馬遜投入了數(shù)百萬美元來制造完美的推理芯片。
Inferentia 芯片由四個 NeuronCore 組成。每個實現(xiàn)一個“高性能脈動陣列矩陣乘法引擎”。每個NeuronCore或多或少地由以線性,獨立方式處理數(shù)據(jù)的大量小型數(shù)據(jù)處理單元(DPU)組成。每個Inferentia芯片還具有巨大的緩存,從而提高了延遲。
責(zé)任編輯:haq
-
芯片
+關(guān)注
關(guān)注
456文章
51170瀏覽量
427250 -
人工智能
+關(guān)注
關(guān)注
1796文章
47666瀏覽量
240285 -
亞馬遜
+關(guān)注
關(guān)注
8文章
2680瀏覽量
83618
發(fā)布評論請先 登錄
相關(guān)推薦
億滋國際攜手亞馬遜云科技,全面加速數(shù)字化轉(zhuǎn)型與增長戰(zhàn)略步伐
AKI跨語言調(diào)用庫神助攻C/C++代碼遷移至HarmonyOS NEXT
Comcast將5G核心網(wǎng)絡(luò)遷移至亞馬遜云科技
亞馬遜轉(zhuǎn)向Trainium芯片,全力投入AI模型訓(xùn)練
亞馬遜將推新芯片,挑戰(zhàn)英偉達
![<b class='flag-5'>亞馬遜</b>將推新<b class='flag-5'>芯片</b>,挑戰(zhàn)英偉達](https://file1.elecfans.com/web2/M00/E5/D3/wKgaomZBeIyADEqiAACsZ19UYWk044.png)
亞馬遜基于人工智能的Alexa發(fā)布計劃延期至明年
從TMS320DM642遷移至TMS320DM648/DM6437
![從TMS320DM642<b class='flag-5'>遷移至</b>TMS320DM648/DM6437](https://file.elecfans.com/web1/M00/D9/4E/pIYBAF_1ac2Ac0EEAABDkS1IP1s689.png)
恩智浦半導(dǎo)體攜手亞馬遜云科技,共創(chuàng)新紀元半導(dǎo)體創(chuàng)新之路
如何將CCS 3.x工程遷移至最新的Code Composer Studio? (CCS)
![如何將CCS 3.x工程<b class='flag-5'>遷移至</b>最新的Code Composer Studio? (CCS)](https://file.elecfans.com/web1/M00/D9/4E/pIYBAF_1ac2Ac0EEAABDkS1IP1s689.png)
將軟件從8位(字節(jié))可尋址CPU遷移至C28x CPU
![將軟件從8位(字節(jié))可尋址CPU<b class='flag-5'>遷移至</b>C28x CPU](https://file.elecfans.com/web1/M00/D9/4E/pIYBAF_1ac2Ac0EEAABDkS1IP1s689.png)
評論