數(shù)量級效率優(yōu)勢,原生適配AI計算:光芯片的下一個技術突破要來了
近年來,人工智能等技術的快速發(fā)展讓計算機的算力需求暴增,但隨著摩爾定律失效,傳統(tǒng)芯片性能提升速度卻開始大幅放緩。全世界都在尋找新的解決方法,光芯片的發(fā)展正讓人看到希望。
我們經(jīng)常會看到光芯片技術、光學神經(jīng)網(wǎng)絡的研究登上 Nature 和 Science 等頂尖科學雜志。在一些研究中科學家們指出,光學開關的速度要比現(xiàn)在商用的頂級硅芯片的晶體管快 100 到 1000 倍。
1萬美元的L4自動駕駛解決方案面世,實測1小時表現(xiàn)如何?
高階自動駕駛想要成功商業(yè)化,除了取決于感知、決策、執(zhí)行各個層級的成熟度,降本也是至關重要的一點,否則不僅難以大規(guī)模投用,更難與乘用車結緣。
據(jù)艾瑞咨詢的一項報告顯示,僅L4級自動駕駛的硬件,在2018年底的成本就達到50萬元左右,還有可能更高。而到今年,百度采用ANP-Robotaxi架構的Apollo Moon自動駕駛運營車,已將整車成本降至48萬元,這還計算了其原型車北汽極狐阿爾法T的費用。
三年完成兩代產(chǎn)品迭代,燧原科技的推理芯片性能又提升了三倍。
12 月,燧原科技在線上發(fā)布會上發(fā)布了第二代云端人工智能推理加速卡「云燧 i20」。
這是時隔五個月以來,燧原科技在今年連續(xù)第二次發(fā)布新產(chǎn)品。今年 7 月,燧原在 WAIC 世界人工智能大會上發(fā)布了第二代加速訓練卡「云燧 T20」。
作為全新一代云端 AI 推理加速產(chǎn)品,云燧 i20 擁有迄今為止業(yè)內最大的 AI 加速卡存儲帶寬,高達 819 GB/s,遠超行業(yè)同類產(chǎn)品水平。與此同時,該加速器全面支持從 FP32、TF32、FP16、BF16 到 INT8 的計算精度。單精度 FP32 峰值算力達到 32 TFLOPS,單精度張量 TF32 峰值算力達到 128 TFLOPS,整型 INT8 峰值算力達到 256 TOPS。對比第一代推理產(chǎn)品,云燧 i20 將浮點算力提升到 1.8 倍,整型算力提升到 3.6 倍。
達摩院成功研發(fā)存算一體AI芯片,性能提升10倍以上
12月3日,達摩院宣布成功研發(fā)新型架構芯片。該芯片是全球首款基于DRAM的3D鍵合堆疊存算一體AI芯片,可突破馮·諾依曼架構的性能瓶頸,滿足人工智能等場景對高帶寬、高容量內存和極致算力的需求。在特定AI場景中,該芯片性能提升10倍以上,能效比提升高達300倍。
過去70年,計算機一直遵循馮·諾依曼架構設計,運行時數(shù)據(jù)需要在處理器和內存之間來回傳輸。隨著時代發(fā)展,這一工作模式面臨較大挑戰(zhàn):在人工智能等高并發(fā)計算場景中,數(shù)據(jù)來回傳輸會產(chǎn)生巨大的功耗;目前內存系統(tǒng)的性能提升速度大幅落后于處理器的性能提升速度,有限的內存帶寬無法保證數(shù)據(jù)高速傳輸。
AI熱點
老電影和圖片變清晰的秘密!分辨率提升400%的AI算法已開源
如上圖, 從100x133pix→400x532pix,除了肉眼可見的清晰,擁有可以將分辨率提升400%的技術到底意味著什么?
它意味著:
老照片、老電影、動漫等畫質可快速提升,分辨率自由調節(jié)
產(chǎn)業(yè)算法效果可以隨著數(shù)據(jù)質量的提升大幅提高
影像傳輸帶寬與存儲空間大幅壓縮,傳輸成本也將大大減少
增大模型依然有用,DeepMind用2800億參數(shù)的Gopher,測試語言系統(tǒng)極限
近年來,國內外各大 AI 巨頭的大規(guī)模語言模型(large language model,LLM)一波接著一波,如 OpenAI 的 GPT-3、智源研究院的悟道 2.0 等。大模型已然成為社區(qū)勢不可擋的發(fā)展趨勢。
然而,當前語言模型存在著一些問題,比如邏輯推理較弱。那么,我們是否可以僅通過添加更多數(shù)據(jù)和算力的情況下改進這些問題呢?或者,我們已經(jīng)達到了語言模型相關技術范式的極限?
Gopher:2800 億參數(shù),接近人類閱讀理解能力
今日,DeepMind「一口氣」發(fā)表了三篇論文,目的之一就是解決當前語言模型存在的問題。DeepMind 得出的結論是進一步擴展大規(guī)模語言模型應該會帶來大量的改進。此前在一次電話簡報會上,DeepMind 研究科學家 Jack Rae 表示,「這些論文的一個關鍵發(fā)現(xiàn)是大規(guī)模語言模型依然在進展之中,能力也在繼續(xù)增強。這個領域并沒有停滯不前。」
2600億參數(shù),60多項任務突破,全球首個知識增強千億大模型鵬城-百度·文心發(fā)布
百度與鵬城實驗室聯(lián)合發(fā)布全球首個知識增強千億大模型——鵬城 - 百度 · 文心(ERNIE 3.0 Titan),是目前為止全球最大的中文單體模型。同時,百度產(chǎn)業(yè)級知識增強大模型 “文心” 全景圖首次亮相。
從 15 億參數(shù)的 GPT-2 到 1750 億參數(shù)的 GPT-3,我們已經(jīng)看到了模型規(guī)模增長和訓練數(shù)據(jù)增加所帶來的顯著收益,其中最重要的一點就是對標注數(shù)據(jù)的依賴顯著降低,這使得很多數(shù)據(jù)稀缺的場景也能用上性能強大的 AI 模型,為 AI 的大規(guī)模工業(yè)化應用掃清了障礙。
原文標題:【AI簡報20211210期】L4自動駕駛解決方案面世、達摩院成功研發(fā)存算一體AI芯片
文章出處:【微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關注!文章轉載請注明出處。
-
人工智能
+關注
關注
1796文章
47683瀏覽量
240313 -
AI芯片
+關注
關注
17文章
1906瀏覽量
35219 -
燧原科技
+關注
關注
0文章
128瀏覽量
8405
原文標題:【AI簡報20211210期】L4自動駕駛解決方案面世、達摩院成功研發(fā)存算一體AI芯片
文章出處:【微信號:RTThread,微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論