2023年是大語言模型、生成式AI、ChatGPT、AIGC大爆發(fā)的一年。GPU是大規(guī)模深度學習、高性能計算的重要硬件基礎(chǔ),而大語言模型,如生成式AI、ChatGPT等,則借助GPU的計算能力快速地訓(xùn)練和推理,獲得更高的模型效果和更廣泛的應(yīng)用場景。尤其在游戲開發(fā)領(lǐng)域,運用大語言模型可以加強游戲的情節(jié)推進、人工智能角色表現(xiàn)等方面的體驗,而加速訓(xùn)練的英偉達GPU則可以使這些特征更加流暢。由于英偉達在GPU硬件設(shè)計和優(yōu)化方面的領(lǐng)先地位,為大型語言模型的快速發(fā)展提供了扎實的技術(shù)基礎(chǔ)。
目前中國和美國研發(fā)的大型AI模型數(shù)量占全球總數(shù)的80%以上,中國排名全球第二,僅次于美國,其中,已經(jīng)發(fā)布超過79個10億參數(shù)規(guī)模以上的大型AI模型。中國科學技術(shù)信息研究所所長、科技部新一代人工智能發(fā)展研究中心主任趙志耘表示,我國前期在人工智能領(lǐng)域的各項部署,為大模型發(fā)展奠定了堅實的基礎(chǔ),并已經(jīng)建立起涵蓋理論方法和軟硬件技術(shù)的體系化研發(fā)能力,形成了緊跟世界前沿的大模型技術(shù)群。
目前,我國參數(shù)規(guī)模在10億以上的大型AI模型數(shù)量達到79個,并且地域和領(lǐng)域分布相對于集中,全國14個省市/地區(qū)都在開展大模型研發(fā),主要集中在北京和廣東兩地,其中北京28個,廣東22個。同時,大模型應(yīng)用也在不斷拓展和深化落地。一方面,通用領(lǐng)域大模型如文心一言、通義千問、紫東太初、星火認知等正在快速發(fā)展,打造跨行業(yè)通用化人工智能能力平臺,其應(yīng)用行業(yè)在辦公、生活、娛樂向醫(yī)療、工業(yè)、教育等加速滲透;另一方面,針對生物制藥、遙感、氣象等垂直領(lǐng)域的專用大模型,發(fā)揮其領(lǐng)域縱深優(yōu)勢,提供針對特定業(yè)務(wù)場景的高質(zhì)量專業(yè)化解決方案。
5月29日,英偉達在2023臺北電腦展大會推出了DGX GH200 AI超級計算機,這是配備256顆Grace Hopper超級芯片和NVIDIA NVLink交換機系統(tǒng)的尖端系統(tǒng),具有1 exaflop性能和144TB共享內(nèi)存。該超級計算機的推出,在人工智能領(lǐng)域引起了轟動,標志著英偉達在大型AI模型技術(shù)和硬件設(shè)計領(lǐng)域的再次領(lǐng)先。其強大的計算和網(wǎng)絡(luò)技術(shù),為生成式AI、大型語言模型和推薦系統(tǒng)的應(yīng)用和開發(fā)帶來了更廣闊的前景,進一步拓展了AI的邊界。此外,DGX GH200還是第一臺Grace Hopper超級芯片和NVLink交換機系統(tǒng)配對的超級計算機,其帶寬較之前顯卡相比多48倍,為人工智能先驅(qū)和云服務(wù)提供商打開了探索新領(lǐng)域的大門。
DGX GH200與生成式AI
英偉達發(fā)布了一系列面向生成式AI的產(chǎn)品和服務(wù),包括大內(nèi)存生成式AI超級計算機DGX GH200、Grace Hopper超級芯片GH200的全面投產(chǎn)、全新加速以太網(wǎng)平臺Spectrum-X、定制化AI模型代工服務(wù)、與WPP合作打造生成式AI內(nèi)容引擎等,多項舉措都為生成式AI的應(yīng)用與發(fā)展提供了更廣闊的前景。
此外,英偉達還發(fā)布了MGX服務(wù)器規(guī)范,并且已有1600多家生成式AI公司采用了英偉達技術(shù)。
目前,英偉達市值已經(jīng)達到9632億美元,僅差一步之遙即可加入“萬億市值俱樂部”,成為美國上市公司市值排名第五的企業(yè)和第一家由華人創(chuàng)立的萬億美元市值公司。
E級算力,谷歌云、Meta、微軟首批試用
英偉達日前發(fā)布了一款采用最新GPU和CPU的系統(tǒng)巔峰之作——新型大內(nèi)存AI超級計算機DGX GH200,預(yù)計于今年年底上市。
該超算旨在支持生成式AI語言應(yīng)用、推薦系統(tǒng)和數(shù)據(jù)分析工作負載的大型下一代模型。DGX GH200集成了先進的加速計算和網(wǎng)絡(luò)技術(shù),是首款將Grace Hopper超級芯片與英偉達NVLink Switch系統(tǒng)搭配的超級計算機。
采用新互連方式,256個Grace Hopper超級芯片可以像單個巨型GPU一樣協(xié)同運行,提供了1EFLOPS性能和144TB共享內(nèi)存,比上一代DGX A100 320GB系統(tǒng)的內(nèi)存多出近500倍。
谷歌云、Meta、微軟等是首批獲得訪問權(quán)限的公司,英偉達打算將DGX GH200設(shè)計藍圖提供給其他云服務(wù)商及超大規(guī)模計算廠商,以便他們進一步為其基礎(chǔ)設(shè)施定制DGX GH200。
英偉達還正在打造自己的基于DGX GH200的大型AI超級計算機NVIDIA Helios,將于今年年底上線。此外,DGX GH200超級計算機包含英偉達軟件,提供AI工作流管理、企業(yè)級集群管理、加速計算、存儲和網(wǎng)絡(luò)基礎(chǔ)設(shè)施庫,以及100多個框架、預(yù)訓(xùn)練模型和開發(fā)工具,以簡化AI生產(chǎn)的開發(fā)和部署。
英偉達的Base Command軟件可以幫助管理AI工作流程、企業(yè)級集群、加速計算和存儲、網(wǎng)絡(luò)基礎(chǔ)設(shè)施等,而AI Enterprise軟件層則提供了許多框架、預(yù)訓(xùn)練模型和開發(fā)工具,以簡化AI生產(chǎn)的開發(fā)和部署。DGX GH200超級計算機的推出將有助于推動AI技術(shù)的發(fā)展,為各行各業(yè)提供更快、更強大的AI計算能力,加速AI技術(shù)的應(yīng)用和落地。
GH200芯片全面投產(chǎn)
英偉達日前宣布,已全面投產(chǎn)GH200 Grace Hopper超級芯片,將為AI和高性能計算工作負載提供動力。
基于GH200的系統(tǒng)已經(jīng)被全球制造商采用,提供了超過400個配置,這些系統(tǒng)都基于英偉達的最新Grace Hopper和Ada Lovelace架構(gòu)。
GH200 Grace Hopper超級芯片采用了NVIDIA NVLink-C2C互連技術(shù),將英偉達Grace CPU和Hopper GPU架構(gòu)組合在同一封裝中,提供高達900GB/s的總帶寬,比傳統(tǒng)加速系統(tǒng)中的標準PCIe Gen5通道帶寬高7倍,同時互連功耗降低到原來的1/5,能夠滿足苛刻的生成式AI和高性能計算(HPC)應(yīng)用。預(yù)計幾家全球超大規(guī)模計算企業(yè)和超算中心客戶將采用GH200驅(qū)動的系統(tǒng),這些系統(tǒng)將于今年晚些時候上市。
打造數(shù)億美元生成式AI超算
此外,黃仁勛還宣布推出NVIDIA Spectrum-X平臺,旨在提高基于以太網(wǎng)的AI云的性能和效率。
Spectrum-X基于網(wǎng)絡(luò)創(chuàng)新,將英偉達Spectrum-4交換機和BlueField-3 DPU緊密耦合,實現(xiàn)了1.7倍的整體AI性能和能效提升,并通過性能隔離增強了多租戶功能,保持一致和可預(yù)測的性能。
Spectrum-X具有高度通用性,能夠用于各種AI應(yīng)用,與基于以太網(wǎng)的堆棧互操作,支持開發(fā)者構(gòu)建軟件定義的云原生AI應(yīng)用程序。全球各大云計算提供商正在采用Spectrum-X平臺擴展生成式AI服務(wù)。Spectrum-X、Spectrum-4交換機、BlueField-3 DPU等現(xiàn)已在戴爾、聯(lián)想、超微等系統(tǒng)制造商處提供。
NVIDIA正在以色列數(shù)據(jù)中心構(gòu)建一臺超大規(guī)模生成式AI超級計算機Israel-1作為Spectrum-X參考設(shè)計的藍圖和測試平臺。該超算將采用戴爾PowerEdge XE9680服務(wù)器、英偉達HGX H100超級計算平臺、內(nèi)置BlueField-3 DPU和Spectrum-4交換機的Spectrum-X平臺,預(yù)計價值數(shù)億美元。該平臺支持256個200Gb/s端口通過單個交換機連接,或在兩層leaf-spine拓撲中提供16000個端口,以支持AI云的增長和擴展,同時保持高水平的性能并最大限度地減少網(wǎng)絡(luò)延遲。
全球領(lǐng)先的云計算提供商正在采用Spectrum-X平臺擴展生成式AI服務(wù)。Spectrum-X、Spectrum-4交換機、BlueField-3 DPU等現(xiàn)已在戴爾、聯(lián)想、超微等系統(tǒng)制造商處提供。
MGX服務(wù)器規(guī)范
模塊化參考架構(gòu)
黃仁勛同時發(fā)布了NVIDIA MGX服務(wù)器規(guī)范,為系統(tǒng)制造商提供了模塊化參考架構(gòu),以適應(yīng)廣泛的AI、HPC及NVIDIA Omniverse應(yīng)用。
MGX支持英偉達全系列GPU、CPU、DPU和網(wǎng)絡(luò)適配器,以及各種x86及Arm處理器,這使得制造商能夠更有效地滿足每個客戶的獨特預(yù)算、電力輸送、熱設(shè)計和機械要求。
永擎(ASRock Rack)、華碩(ASUS)、技嘉(GIGABYTE)、和碩(Pegatron)、QCT、超微(Supermicro)等將采用MGX構(gòu)建下一代加速計算機,可將開發(fā)成本削減多達3/4,并將開發(fā)時間縮短2/3至僅需6個月。MGX可以從為其服務(wù)器機箱加速計算優(yōu)化的基本系統(tǒng)架構(gòu)開始,然后選擇GPU、DPU和CPU。同時,MGX提供了英偉達產(chǎn)品靈活的多代兼容性,以確保制造商可以重用現(xiàn)有設(shè)計并輕松采用下一代產(chǎn)品。MGX還能輕松集成到云和企業(yè)數(shù)據(jù)中心中。
除了MGX規(guī)范外,黃仁勛還宣布,英偉達與日本電信巨頭軟銀合作,在日本建立一個分布式數(shù)據(jù)中心網(wǎng)絡(luò)。該網(wǎng)絡(luò)將在一個共同的云平臺上提供5G服務(wù)和生成式AI應(yīng)用。數(shù)據(jù)中心將使用MGX系列(包括Grace Hopper、BlueField-3 DPU和Spectrum以太網(wǎng)交換機)以提供5G協(xié)議所需的高精度定時,并提高頻譜效率以降低成本和能耗。
這些系統(tǒng)有助于探索自動駕駛、AI工廠、AR/VR、計算機視覺和數(shù)字孿生等領(lǐng)域的應(yīng)用。未來的用途可能包括3D視頻會議和全息通信。這將為這些領(lǐng)域提供更高效、更靈活和更先進的解決方案,推動技術(shù)和產(chǎn)業(yè)的發(fā)展。
GH200在游戲行業(yè)的應(yīng)用
黃仁勛在宣布推出針對游戲的Avatar云引擎(ACE)服務(wù),這是一項定制AI模型代工服務(wù),中間件、工具和游戲開發(fā)者可以使用它來構(gòu)建和部署定制的語音、對話和動畫AI模型。
ACE能賦予非玩家角色(NPC)更智能且不斷進化的對話技能,使其能夠以栩栩如生的個性來回答玩家的問題。ACE for Games為語音、對話和角色動畫提供了優(yōu)化的AI基礎(chǔ)模型,包括:英偉達NeMo,使用專有數(shù)據(jù),構(gòu)建、定制和部署語言模型;英偉達Riva,用于自動語音識別和文本轉(zhuǎn)語音,以實現(xiàn)實時語音對話;英偉達Omniverse Audio2Face,用于即時創(chuàng)建游戲角色的表情動畫,以匹配任何語音軌道。
此外,英偉達與其子公司Convai合作,展示了如何快速用英偉達ACE for Games來構(gòu)建游戲NPU。在名為“Kairos”的演示中,英偉達展示了一個與一個拉面店的供應(yīng)商Jin互動的游戲。基于生成式AI,Jin雖是個NPC,卻能擬真地回答自然語言問題,且回答內(nèi)容與敘述的背景故事一致。開發(fā)人員可以集成整個NVIDIA ACE for Games解決方案,也可以只使用他們需要的組件。多家游戲開發(fā)商和初創(chuàng)公司已采用英偉達的生成式AI技術(shù)。
黃仁勛還介紹了英偉達和微軟如何在生成式AI時代合作推動Windows PC的創(chuàng)新。新的和增強的工具、框架和驅(qū)動程序使PC開發(fā)者更容易開發(fā)和部署AI,例如用于優(yōu)化和部署GPU加速AI模型和新圖形驅(qū)動程序的微軟Olive工具鏈將提高帶有英偉達GPU的Windows PC上的DirectML性能。此次合作將增強和擴展搭載RTX GPU的1億臺PC的安裝基礎(chǔ),可提升400多個AI加速的Windows應(yīng)用程序和游戲的性能。這將為PC游戲帶來更高的性能和更好的體驗,同時也將推動AI在Windows PC上的應(yīng)用和發(fā)展。
總的來說,黃仁勛在宣布中介紹了NVIDIA在游戲AI方面的最新進展和合作,包括Avatar云引擎(ACE)服務(wù)、微軟合作推動Windows PC的創(chuàng)新等。這些技術(shù)和合作將為游戲開發(fā)者帶來更多的AI工具和解決方案,為玩家?guī)砀玫挠螒蝮w驗。
DGX GH200在數(shù)字廣告中的應(yīng)用
英偉達的生成式AI技術(shù)也將在數(shù)字廣告行業(yè)帶來新機遇。基于NVIDIA AI和Omniverse技術(shù)的引擎將多個創(chuàng)意3D和AI工具連接在一起,以大規(guī)模革新商業(yè)內(nèi)容和體驗。
英國WPP集團,全球最大的營銷服務(wù)機構(gòu),正與英偉達合作,利用Omniverse Cloud構(gòu)建首個生成式AI內(nèi)容引擎,以更高效和高質(zhì)量的方式為客戶創(chuàng)建商業(yè)內(nèi)容。
新引擎連接了來自Adobe和Getty Images等工具的3D設(shè)計、制造和創(chuàng)意供應(yīng)鏈工具的生態(tài)系統(tǒng)。黃仁勛在演講中展示了創(chuàng)意團隊如何將他們的3D設(shè)計工具連接在一起,并在Omniverse中構(gòu)建客戶產(chǎn)品的數(shù)字孿生。使用負責任的數(shù)據(jù)來源訓(xùn)練生成式AI技術(shù)并結(jié)合英偉達Picasso一起構(gòu)建,使其能夠快速生成虛擬集。此后,WPP客戶可利用完整的場景生成大量廣告、視頻和3D體驗,供全球市場和用戶在任何網(wǎng)絡(luò)設(shè)備上使用。
這項合作在數(shù)字廣告領(lǐng)域持續(xù)推動著生成式AI技術(shù)的發(fā)展。WPP首席執(zhí)行官馬克·里德表示,生成式AI技術(shù)正在以驚人的速度改變營銷世界,合作所提供的獨特競爭優(yōu)勢將改變品牌為商業(yè)用途創(chuàng)建內(nèi)容的方式,并鞏固WPP在為世界頂級品牌創(chuàng)造性應(yīng)用AI方面的行業(yè)領(lǐng)導(dǎo)地位。
DGX GH200在
電子制造商中的應(yīng)用
全球電子制造商正在使用一種全新的綜合參考工作流程,這種工作流程結(jié)合了英偉達的多種技術(shù),包括生成式AI、3D協(xié)作、仿真和自主機器,旨在幫助制造商規(guī)劃、構(gòu)建、運營和優(yōu)化他們的工廠。這些技術(shù)包括英偉達的Omniverse,它連接了頂級計算機輔助設(shè)計和生成式AI的API和前沿框架;英偉達的Isaac Sim應(yīng)用程序,用于模擬和測試機器人;英偉達的Metropolis視覺AI框架,用于自動光學檢測。
英偉達使電子制造商能夠輕松構(gòu)建和運營虛擬工廠,將其制造和檢驗工作流程數(shù)字化,并大大提高質(zhì)量和安全,減少代價高昂的最后一刻意外和延誤。黃仁勛在現(xiàn)場展示了一個完全數(shù)字化的智能工廠的演示。
富士康工業(yè)互聯(lián)網(wǎng)、宜鼎國際、和碩、廣達和緯創(chuàng)正在使用英偉達的參考工作流程,以優(yōu)化他們的工作單元和裝配線運營,同時降低生產(chǎn)成本,具體用例包括電路板質(zhì)保檢測點自動化、光學檢測自動化、建設(shè)虛擬工廠、模擬協(xié)作機器人、構(gòu)建及運營數(shù)字孿生等。
英偉達正在與幾家領(lǐng)先的制造工具和服務(wù)提供商合作,構(gòu)建一個全棧、單一的架構(gòu),每個架構(gòu)都適用于每個工作流程級別。
在系統(tǒng)層面,英偉達IGX Orin提供了一個一體化的邊緣AI平臺,將工業(yè)級硬件與企業(yè)級軟件和支持相結(jié)合。IGX滿足邊緣計算獨特的耐用性和低功耗要求,同時提供開發(fā)和運行AI應(yīng)用程序所需的高性能。其制造商合作伙伴們正在開發(fā)IGX驅(qū)動的系統(tǒng),以服務(wù)于工業(yè)和醫(yī)療市場。
在平臺層面,Omniverse連接了世界領(lǐng)先的3D、模擬和生成式AI提供商,團隊可在他們最喜歡的應(yīng)用程序之間構(gòu)建互操作性,比如來自Adobe、Autodesk和Siemens的應(yīng)用程序。
這些技術(shù)的整合使得制造商能夠在一個統(tǒng)一的平臺上進行設(shè)計、仿真、測試和生產(chǎn),從而大大提高效率和質(zhì)量。此外,英偉達還提供了一系列工具和服務(wù),幫助制造商管理和優(yōu)化他們的生產(chǎn)線,包括實時監(jiān)控、數(shù)據(jù)分析和預(yù)測性維護。
英偉達的數(shù)字化工廠解決方案不僅適用于電子制造業(yè),還可以應(yīng)用于其他行業(yè),如汽車制造、航空航天、醫(yī)療設(shè)備等。這些行業(yè)都需要高度自動化和數(shù)字化的生產(chǎn)線,以滿足不斷增長的市場需求和質(zhì)量標準。
GH200產(chǎn)品參數(shù)
GH200是英偉達推出的最新超級計算機,最多可以放置256個GPU,適用于超大型AI模型的部署。相比之前的DGX服務(wù)器,GH200提供線性拓展方式和更高的GPU共享內(nèi)存編程模型,可通過NVLink高速訪問144TB內(nèi)存,是上一代DGX的500倍。其架構(gòu)提供的NVLink帶寬是上一代的48倍,使得千億或萬億參數(shù)以上的大模型能夠在一臺DGX內(nèi)放置,進一步提高模型效率和多模態(tài)模型的開發(fā)進程。
GPU的統(tǒng)一內(nèi)存編程模型一直是復(fù)雜加速計算應(yīng)用取得突破的基石。NVIDIA Grace Hopper Superchip與NVLink開關(guān)系統(tǒng)配對,在NVIDIA DGX GH200系統(tǒng)中整合了256個GPU,通過NVLink高速訪問144TB內(nèi)存。與單個NVIDIA DGX A100 320 GB系統(tǒng)相比,NVIDIA DGX GH200為GPU共享內(nèi)存編程模型提供了近500倍的內(nèi)存,是突破GPU通過NVLink訪問內(nèi)存的100TB障礙的第一臺超級計算機。NVIDIA Base Command的快速部署和簡化系統(tǒng)管理使用戶能夠更快地進行加速計算。
NVIDIA DGX GH200系統(tǒng)采用了NVIDIA Grace Hopper Superchip和NVLink Switch System作為其構(gòu)建塊。NVIDIA Grace Hopper Superchip將CPU和GPU結(jié)合在一起,使用NVIDIA NVLink-C2C技術(shù)提供一致性內(nèi)存模型,并提供高帶寬和無縫的多GPU系統(tǒng)。每個Grace Hopper超級芯片都擁有480GB的LPDDR5 CPU內(nèi)存和96GB的快速HBM3,提供比PCIe Gen5多7倍的帶寬,與NVLink-C2C互連。
NVLink開關(guān)系統(tǒng)使用第四代NVLink技術(shù),將NVLink連接擴展到超級芯片,以創(chuàng)建一個兩級、無阻塞、NVLink結(jié)構(gòu),可完全連接256個Grace Hopper超級芯片。這種結(jié)構(gòu)提供900GBps的內(nèi)存訪問速度,托管Grace Hopper Superchips的計算底板使用定制線束連接到第一層NVLink結(jié)構(gòu),并由LinkX電纜擴展第二層NVLink結(jié)構(gòu)的連接性。
在DGX GH200系統(tǒng)中,GPU線程可以使用NVLink頁表來訪問來自其他Grace Hopper超級芯片的內(nèi)存,并通過NVIDIA Magnum IO加速庫來優(yōu)化GPU通信以提高效率。該系統(tǒng)擁有128 TBps的對分帶寬和230.4 TFLOPS的NVIDIA SHARP網(wǎng)內(nèi)計算,可加速AI常用的集體運算,并將NVLink網(wǎng)絡(luò)系統(tǒng)的實際帶寬提高一倍。每個Grace Hopper Superchip都配備一個NVIDIA ConnectX-7網(wǎng)絡(luò)適配器和一個NVIDIA BlueField-3 NIC,以擴展到超過256個GPU,可以互連多個DGX GH200系統(tǒng),并利用BlueField-3 DPU的功能將任何企業(yè)計算環(huán)境轉(zhuǎn)變?yōu)榘踩壹铀俚奶摂M私有云。
對于受GPU內(nèi)存大小瓶頸的AI和HPC應(yīng)用程序,GPU內(nèi)存的代際飛躍可以顯著提高性能。對于許多主流AI和HPC工作負載,單個NVIDIA DGX H100的聚合GPU內(nèi)存可以完全支持。對于其他工作負載,例如具有TB級嵌入式表的深度學習推薦模型(DLRM)、TB級圖形神經(jīng)網(wǎng)絡(luò)訓(xùn)練模型或大型數(shù)據(jù)分析工作負載,使用DGX GH200可實現(xiàn)4至7倍的加速。這表明DGX GH200是更高級的AI和HPC模型的更好解決方案,這些模型需要海量內(nèi)存來進行GPU共享內(nèi)存編程。
DGX GH200是專為最嚴苛的工作負載而設(shè)計的系統(tǒng),每個組件都經(jīng)過精心挑選,以最大限度地減少瓶頸,同時最大限度地提高關(guān)鍵工作負載的網(wǎng)絡(luò)性能,并充分利用所有擴展硬件功能。這使得該系統(tǒng)具有高度的線性可擴展性和海量共享內(nèi)存空間的高利用率。
為了充分利用這個先進的系統(tǒng),NVIDIA還構(gòu)建了一個極高速的存儲結(jié)構(gòu),以峰值容量運行并處理各種數(shù)據(jù)類型(文本、表格數(shù)據(jù)、音頻和視頻),并且表現(xiàn)穩(wěn)定且并行。
DGX GH200附帶NVIDIA Base Command,其中包括針對AI工作負載優(yōu)化的操作系統(tǒng)、集群管理器、加速計算的庫、存儲和網(wǎng)絡(luò)基礎(chǔ)設(shè)施,這些都針對DGX GH200系統(tǒng)架構(gòu)進行了優(yōu)化。此外,DGX GH200還包括NVIDIA AI Enterprise,提供一套經(jīng)過優(yōu)化的軟件和框架,可簡化AI開發(fā)和部署。這種全堆棧解決方案使客戶能夠?qū)W⒂趧?chuàng)新,而不必擔心管理其IT基礎(chǔ)架構(gòu)。
審核編輯:湯梓紅
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5076瀏覽量
103723 -
AI
+關(guān)注
關(guān)注
87文章
31520瀏覽量
270339 -
英偉達
+關(guān)注
關(guān)注
22文章
3847瀏覽量
91976 -
超級芯片
+關(guān)注
關(guān)注
0文章
36瀏覽量
8912 -
生成式AI
+關(guān)注
關(guān)注
0文章
514瀏覽量
547
發(fā)布評論請先 登錄
相關(guān)推薦
評論