衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenShift 4和GPU在OpenShift參考架構(gòu)上的AI工作負(fù)載

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Chris Zankel ? 2022-04-28 15:25 ? 次閱讀

Red Hat OpenShift 是一個(gè)企業(yè)級(jí) Kubernetes 平臺(tái),用于大規(guī)模管理 Kubernetes 集群,由 Red Hat 開(kāi)發(fā)和支持。它提供了一種方法來(lái)改變組織如何在本地以及跨混合云管理復(fù)雜的基礎(chǔ)設(shè)施

人工智能計(jì)算給現(xiàn)代商業(yè)帶來(lái)了深遠(yuǎn)的變革,包括金融服務(wù)中的欺詐檢測(cè)以及娛樂(lè)和電子商務(wù)的推薦引擎。 2018 年 CTA 市場(chǎng)研究報(bào)告顯示,與不采用人工智能的公司相比,將人工智能技術(shù)作為公司戰(zhàn)略核心的公司的利潤(rùn)率提高了 15% 。

為這些新的、大量計(jì)算密集型的工作負(fù)載提供基礎(chǔ)設(shè)施的責(zé)任落在了 IT 的肩上,許多組織都在為 AI 部署 IT 認(rèn)可的基礎(chǔ)設(shè)施所帶來(lái)的復(fù)雜性、時(shí)間和成本上苦苦掙扎。多達(dá) 40% 的希望部署人工智能的組織將基礎(chǔ)設(shè)施視為主要障礙。為人工智能工作負(fù)載部署集群通常會(huì)在網(wǎng)絡(luò)拓?fù)洹⒂?jì)算和存儲(chǔ)資源的規(guī)模確定等方面提出問(wèn)題。 NVIDIA 因此為典型應(yīng)用創(chuàng)建了參考架構(gòu),以減輕猜測(cè)。

例如 DGX-POD, 它包含了多個(gè) DGX-1 系統(tǒng)及來(lái)自多個(gè)供應(yīng)商的存儲(chǔ)系統(tǒng)。 NVIDIA 根據(jù)部署在世界上最大的研究和企業(yè)環(huán)境中的數(shù)千個(gè)前沿加速計(jì)算節(jié)點(diǎn)的經(jīng)驗(yàn),開(kāi)發(fā)了 DGX POD 。然而,要確保人工智能在規(guī)模上取得成功,就需要一個(gè)軟件平臺(tái),如 KubernetesTM ,以確保人工智能基礎(chǔ)設(shè)施的可管理性。

紅帽 OpenShift 4 是一個(gè)主要的發(fā)行版,它結(jié)合了紅帽收購(gòu) CoreOS 的技術(shù)。其核心(不是雙關(guān)語(yǔ))是基于 Red Hat Enterprise Linux CoreOS ( RHCOS )的不可變系統(tǒng)映像。它遵循了一個(gè)新的范例,即安裝在部署之后永遠(yuǎn)不會(huì)被修改或更新,而是被整個(gè)系統(tǒng)映像的更新版本所取代。這就提供了更高的可靠性和一致性,并提供了更可預(yù)測(cè)的部署過(guò)程。

這篇文章首先介紹了 OpenShift 4 和 GPU 操作符在 OpenShift 參考架構(gòu)上的 AI 工作負(fù)載。我們基于一個(gè)需要一些手動(dòng)步驟的軟件預(yù)覽,這將在最終版本中解決。

安裝和運(yùn)行 OpenShift 需要一個(gè) Red Hat 帳戶和其他訂閱。官方安裝說(shuō)明見(jiàn) 在裸機(jī)上安裝群集 。

測(cè)試設(shè)置概述

OpenShift 集群的最小配置包括三個(gè) 主人 節(jié)點(diǎn)和兩個(gè) 工人 節(jié)點(diǎn)(也稱(chēng)為 計(jì)算 節(jié)點(diǎn))。集群的初始設(shè)置需要一個(gè)額外的 引導(dǎo) 節(jié)點(diǎn),可以在安裝過(guò)程中刪除或重新調(diào)整其用途。有三個(gè)主節(jié)點(diǎn)的要求確保了高可用性(避免了大腦分裂的情況),并允許主節(jié)點(diǎn)不間斷地升級(jí)。

我們?cè)谝慌_(tái) x86 機(jī)器上使用虛擬機(jī)作為引導(dǎo)和主節(jié)點(diǎn),兩個(gè) DGX-1 系統(tǒng)用于計(jì)算節(jié)點(diǎn)(裸機(jī))。負(fù)載平衡器在單獨(dú)的虛擬機(jī)中運(yùn)行,以將請(qǐng)求分發(fā)到節(jié)點(diǎn)。使用循環(huán) DNS 也起到了作用,但要正確地配置結(jié)果卻很棘手。需要將 virsh 網(wǎng)絡(luò)設(shè)置為橋接模式,而不是 NAT ,以便節(jié)點(diǎn)可以相互通信

Red Hat OpenShift 4 還沒(méi)有為裸機(jī)系統(tǒng)提供完全自動(dòng)化的安裝方法,但需要外部基礎(chǔ)設(shè)施來(lái)提供和執(zhí)行初始安裝( OpenShift 文檔將其稱(chēng)為 用戶提供的基礎(chǔ)設(shè)施( UPI ) 。在我們的例子中,我們使用 x86 服務(wù)器通過(guò) PXE 引導(dǎo)來(lái)配置和引導(dǎo)節(jié)點(diǎn)。一旦安裝,節(jié)點(diǎn)將自動(dòng)執(zhí)行升級(jí)。

創(chuàng)建系統(tǒng)配置

Red Hat Enterprise Linux CoreOS 使用點(diǎn)火進(jìn)行系統(tǒng)配置。點(diǎn)火提供了與 cloud init 類(lèi)似的功能,并允許在第一次引導(dǎo)期間配置系統(tǒng)。

點(diǎn)火文件由 OpenShift 起始頁(yè) 安裝程序從配置文件 install-config.yaml 生成。它通過(guò)各種參數(shù)描述集群,還包括一個(gè) SSH 密鑰和用于從 redhat 容器存儲(chǔ)庫(kù)提取容器的憑據(jù)。可以從 OpenShift 下載 OpenShift 工具和 Pull Secret 。

apiVersion: v1
baseDomain: nvidia.com
compute:
- hyperthreading: Enabled name: worker platform: {} replicas: 2
controlPlane: hyperthreading: Enabled name: master platform: {} replicas: 3
metadata: creationTimestamp: null name: dgxpod
networking: clusterNetwork: - cidr: 10.128.0.0/14 hostPrefix: 23 networkType: OpenShiftSDN machineCIDR: 10.0.0.0/16 serviceNetwork: - 172.30.0.0/16
platform: none: {}
pullSecret: '{"auths": ….}'
sshKey: ssh-rsa ...

參數(shù)baseDomainmetadata:name構(gòu)成集群的域名(dgxpod.nvidia.com)。網(wǎng)絡(luò)參數(shù)描述了 OpenShift 集群的內(nèi)部網(wǎng)絡(luò),只有在與外部網(wǎng)絡(luò)沖突時(shí)才需要修改。

以下命令為節(jié)點(diǎn)創(chuàng)建點(diǎn)火文件,并為集群創(chuàng)建身份驗(yàn)證文件。因?yàn)檫@些命令刪除了安裝 – 組態(tài)軟件,所以我們?cè)?code style="font-size:inherit;color:inherit;margin:0px;padding:0px;border:0px;font-style:inherit;font-variant:inherit;font-weight:inherit;line-height:inherit;vertical-align:baseline;background-color:rgb(244,244,244);">ignition目錄之外保留了它的一個(gè)副本。生成的身份驗(yàn)證文件(ignition/auth/kubeconfig)應(yīng)重命名并復(fù)制到$USERHOME/.kube/config

mkdir ignition
cp install-config.yaml ignition
openshift-install --dir ignition create ignition-configs

DHCP 和 PXE 引導(dǎo)

設(shè)置 PXE 引導(dǎo)當(dāng)然不是一件容易的事;提供詳細(xì)的說(shuō)明超出了本文的范圍。讀者應(yīng)具備設(shè)置 PXE 引導(dǎo)和 DHCP 的知識(shí)。以下代碼段僅介紹 dnsmasq 的 DNS 配置。

dnsmasq 配置文件中的 address 指令允許使用通配符來(lái)解析任何帶有負(fù)載平衡器地址的*. apps 請(qǐng)求。 SRV 條目允許集群訪問(wèn) etcd 服務(wù)。

# Add hosts file
addn-hosts=/etc/hosts.dnsmasq # Forward all *.apps.dgxpod.nvidia.com to the load balancer
address=/apps.dgxpod.nvidia.com/10.33.3.54/ # SRV DNS records
srv-host=_etcd-server-ssl._tcp.dgxpod.nvidia.com,etcd-0.dgxpod.nvidia.com,2380,0,10
srv-host=_etcd-server-ssl._tcp.dgxpod.nvidia.com,etcd-1.dgxpod.nvidia.com,2380,0,10
srv-host=_etcd-server-ssl._tcp.dgxpod.nvidia.com,etcd-2.dgxpod.nvidia.com,2380,0,10

相應(yīng)的/etc/hosts.dnsmasq文件列出了 IP 地址和主機(jī)名。注意, OpenShift 要求每個(gè)主機(jī)的第一個(gè)條目是節(jié)點(diǎn)名,例如master-0api-intapi項(xiàng)指向負(fù)載平衡器。

10.33.3.44 worker-0.dgxpod.nvidia.com
10.33.3.46 worker-1.dgxpod.nvidia.com 10.33.3.50 master-0.dgxpod.nvidia.com etcd-0.dgxpod.nvidia.com
10.33.3.51 master-1.dgxpod.nvidia.com etcd-1.dgxpod.nvidia.com
10.33.3.52 master-2.dgxpod.nvidia.com etcd-2.dgxpod.nvidia.com 10.33.3.53 bootstrap.dgxpod.nvidia.com 10.33.3.54 api-int.dgxpod.nvidia.com api.dgxpod.nvidia.com

下面的pxelinux.cfg文件是一個(gè)非 EFI-PXE 引導(dǎo)配置的示例。它定義內(nèi)核和初始 ramdisk ,并提供額外的命令行參數(shù)。注意,前綴為coreos的參數(shù)被傳遞給 CoreOS 安裝程序。

DEFAULT rhcos
PROMPT 0
TIMEOUT 0 LABEL rhcos kernel rhcos/rhcos-410.8.20190425.1-installer-kernel initrd rhcos/rhcos-410.8.20190425.1-installer-initramfs.img append ip=dhcp rd.neednet=1 console=tty0 console=ttyS0 coreos.inst=yes coreos.inst.install_dev=vda coreos.inst.image_url=http://10.33.3.18/rhcos/rhcos-410.8.20190412.1-metal-bios.raw coreos.inst.ignition_url=http://10.33.3.18/rhcos/ignition/master.ign

內(nèi)核、 initramfs 和 raw 映像可以從 OpenShift 鏡像 獲得。安裝說(shuō)明 在裸機(jī)上安裝群集 提供了最新版本和下載路徑。應(yīng)將上一步驟中的映像文件和點(diǎn)火配置復(fù)制到 http 目錄。請(qǐng)確保為所有這些文件設(shè)置了正確的 http SELinux 標(biāo)簽。請(qǐng)注意, DGX-1 系統(tǒng)僅支持 UEFI 進(jìn)行網(wǎng)絡(luò)引導(dǎo),因此需要不同的文件集。

負(fù)載平衡器

負(fù)載平衡器處理跨在線節(jié)點(diǎn)的分布式請(qǐng)求。我們?cè)谝粋€(gè)單獨(dú)的虛擬機(jī)中運(yùn)行 CentOS 的實(shí)例,并使用 HAProxy 進(jìn)行以下配置。

listen ingress-http bind *:80 mode tcp server worker-0 worker-0.dgxpod.nvidia.com:80 check server worker-1 worker-1.dgxpod.nvidia.com:80 check listen ingress-https bind *:443 mode tcp server worker-0 worker-0.dgxpod.nvidia.com:443 check server worker-1 worker-1.dgxpod.nvidia.com:443 check listen api bind *:6443 mode tcp server bootstrap bootstrap.dgxpod.nvidia.com:6443 check server master-0 master-0.dgxpod.nvidia.com:6443 check server master-1 master-1.dgxpod.nvidia.com:6443 check server master-2 master-2.dgxpod.nvidia.com:6443 check listen machine-config-server bind *:22623 mode tcp server bootstrap bootstrap.dgxpod.nvidia.com:22623 check server master-0 master-0.dgxpod.nvidia.com:22623 check server master-1 master-1.dgxpod.nvidia.com:22623 check server master-2 master-2.dgxpod.nvidia.com:22623 check

創(chuàng)建引導(dǎo)節(jié)點(diǎn)和主節(jié)點(diǎn)

virt install 命令允許輕松部署引導(dǎo)和主節(jié)點(diǎn)。 節(jié)點(diǎn)名稱(chēng) 應(yīng)替換為節(jié)點(diǎn)的實(shí)際名稱(chēng), 節(jié)點(diǎn) MAC 應(yīng)替換為節(jié)點(diǎn)的相應(yīng)網(wǎng)絡(luò)地址( MAC )。

virt-install --connect qemu:///system --name --ram 8192 --vcpus 4 --os-type=linux --os-variant=virtio26 --disk path=/var/lib/libvirt/images/.qcow2,device=disk,bus=virtio,format=qcow2,size=20 --pxe --network bridge=virbr0 -m --graphics vnc,listen=0.0.0.0 --noautoconsole

初始安裝完成后,虛擬機(jī)退出,必須手動(dòng)重新啟動(dòng)。可以使用打印所有活動(dòng)虛擬機(jī)的sudo virsh list監(jiān)視虛擬機(jī)的狀態(tài)。重新啟動(dòng)virsh start 節(jié)點(diǎn)時(shí)virsh start 會(huì)再次重新啟動(dòng)virsh start 節(jié)點(diǎn)。

假設(shè)設(shè)置和配置正確,集群的整個(gè)安裝過(guò)程應(yīng)該不到一個(gè)小時(shí)。可以使用以下命令監(jiān)視初始引導(dǎo)進(jìn)程。

openshift-install --dir wait-for bootstrap-complete

引導(dǎo)完成后,可以刪除引導(dǎo)節(jié)點(diǎn)。接下來(lái),等待整個(gè)安裝過(guò)程完成,使用:

openshift-install --dir wait-for install-complete

安裝程序的預(yù)發(fā)布版本有時(shí)報(bào)告錯(cuò)誤,但最終成功完成。因?yàn)樗矝](méi)有自動(dòng)批準(zhǔn)掛起的證書(shū)( CSR ),所以我們添加了以下 crontab 條目,每 10 分鐘運(yùn)行一次。

*/10 * * * * dgxuser oc get csr -ojson | jq -r '.items[] | select(.status == {} ) | .metadata.name' | xargs oc adm certificate approve

GPU 支持

NVIDIA 和 Red Hat 繼續(xù)合作,為部署和管理 GPU 驅(qū)動(dòng)程序提供了一個(gè)簡(jiǎn)單明了的機(jī)制。 節(jié)點(diǎn)特征發(fā)現(xiàn)操作符 ( NFD )和 GPU 算子為這種改進(jìn)的機(jī)制奠定了基礎(chǔ),并且可以從胡德帽操作中心獲得。這允許隨時(shí)部署和優(yōu)化軟件堆棧。以下說(shuō)明描述了安裝這些操作器的手動(dòng)步驟。

NFD 檢測(cè) OpenShift 集群中的硬件特性和配置,例如 CPU 類(lèi)型和擴(kuò)展,或者在我們的例子中是 NVIDIA GPUs 。

git clone h?ttps://github.com/openshift/cluster-nfd-operator
cd cluster-nfd-operator/manifests
oc create -f .
oc create -f cr/nfd_cr.yaml

安裝完成后, NVIDIA GPU 應(yīng)該會(huì)出現(xiàn)在 worker 節(jié)點(diǎn)的特性列表中;最終的軟件將提供一個(gè)人類(lèi)可讀的名稱(chēng),而不是供應(yīng)商 ID (0x10de表示 NVIDIA )。

oc describe node worker-0|grep 10de feature.node.kubernetes.io/pci-10de.present=true

特種資源運(yùn)營(yíng)商 ( SRO )為加速卡提供了一個(gè)模板。當(dāng)檢測(cè)到組件并安裝正確的驅(qū)動(dòng)程序和其他軟件組件時(shí),它將激活。

特殊資源運(yùn)營(yíng)商的開(kāi)發(fā)版本已經(jīng)包含了對(duì) NVIDIA GPUs 的支持,并將在可用時(shí)并入 NVIDIA GPU 運(yùn)營(yíng)商。它管理所有必需的 NVIDIA 驅(qū)動(dòng)程序和軟件組件的安裝過(guò)程。

git clone https://github.com/zvonkok/special-resource-operator
cd special-resource-operator/manifests
oc create -f .
cd cr
oc create -f sro_cr_sched_none.yaml

以下nvidia-smi.yamlfile defines a Kubernetes Pod that can be used for a quick validation. It allocates a single GPU and runsthenvidia-smicommand.

apiVersion: v1
kind: Pod
metadata: name: nvidia-smi
spec: containers: - image: nvidia/cuda name: nvidia-smi command: [ nvidia-smi ] resources: limits: nvidia.com/gpu: 1 requests: nvidia.com/gpu: 1

oc create -f nvidia-smi.yaml腳本創(chuàng)建并運(yùn)行 pod 。要監(jiān)視 pod 創(chuàng)建的進(jìn)度,請(qǐng)使用oc describe pod nvidia-smi。完成后,可以使用oc logs nvidia-smi查看oc logs nvidia-smi-smi 命令的輸出:

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 418.56 Driver Version: 418.56 CUDA Version: 10.1 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Tesla V100-SXM2... On | 00000000:86:00.0 Off | 0 |
| N/A 36C P0 41W / 300W | 0MiB / 16130MiB | 1% Default |
+-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| No running processes found |
+-----------------------------------------------------------------------------+

最后,可以使用 oc delete pod nvidia-smi 刪除 pod 。

結(jié)論

引入運(yùn)營(yíng)商和構(gòu)建在 Red Hat Enterprise Linux CoreOS 之上的不可變基礎(chǔ)設(shè)施,為 OpenShift 4 帶來(lái)了令人興奮的改進(jìn)。它簡(jiǎn)化了多節(jié)點(diǎn)大規(guī)模 GPU 加速數(shù)據(jù)中心的優(yōu)化軟件堆棧的部署和管理。這些新功能現(xiàn)在看起來(lái)相當(dāng)可靠,我們認(rèn)為客戶將來(lái)會(huì)很樂(lè)意使用它們的。

關(guān)于作者

Chris Zankel 是 NVIDIA DGX 系統(tǒng)軟件的高級(jí)產(chǎn)品經(jīng)理。作為一名工程師轉(zhuǎn)為產(chǎn)品經(jīng)理,他擁有從嵌入式設(shè)備到大型企業(yè)系統(tǒng)的經(jīng)驗(yàn)。在過(guò)去的工作中,他積極為 Linux 內(nèi)核做出貢獻(xiàn),并致力于存儲(chǔ)、虛擬化和容器化

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4776

    瀏覽量

    129358
  • 人工智能
    +關(guān)注

    關(guān)注

    1796

    文章

    47680

    瀏覽量

    240297
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    GPU是如何訓(xùn)練AI大模型的

    AI模型的訓(xùn)練過(guò)程中,大量的計(jì)算工作集中矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),
    的頭像 發(fā)表于 12-19 17:54 ?241次閱讀

    深度學(xué)習(xí)工作負(fù)載GPU與LPU的主要差異

    ,一個(gè)新的競(jìng)爭(zhēng)力量——LPU(Language Processing Unit,語(yǔ)言處理單元)已悄然登場(chǎng),LPU專(zhuān)注于解決自然語(yǔ)言處理(NLP)任務(wù)中的順序性問(wèn)題,是構(gòu)建AI應(yīng)用不可或缺的一環(huán)。 本文旨在探討深度學(xué)習(xí)工作負(fù)載
    的頭像 發(fā)表于 12-09 11:01 ?1476次閱讀
    深度學(xué)習(xí)<b class='flag-5'>工作</b><b class='flag-5'>負(fù)載</b>中<b class='flag-5'>GPU</b>與LPU的主要差異

    《算力芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    昇騰采用達(dá)芬奇架構(gòu)AI Core中集成了標(biāo)量/向量/張量處理單元。我注意到書(shū)中對(duì)TPU v4光學(xué)芯片互聯(lián)的分析特別深入,這種創(chuàng)新或?qū)⒅厮芪磥?lái)AI
    發(fā)表于 11-24 17:12

    GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)

    眾所周知,大型模型訓(xùn)練中,通常采用每臺(tái)服務(wù)器配備多個(gè)GPU的集群架構(gòu)。在上一篇文章《高性能GPU服務(wù)器AI網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-05 16:20 ?610次閱讀
    <b class='flag-5'>GPU</b>服務(wù)器<b class='flag-5'>AI</b>網(wǎng)絡(luò)<b class='flag-5'>架構(gòu)</b>設(shè)計(jì)

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--了解算力芯片GPU

    每個(gè)CUDA單元 OpenCL 編程框架中都有對(duì)應(yīng)的單元。 倒金字塔結(jié)構(gòu)GPU存儲(chǔ)體系 共享內(nèi)存是開(kāi)發(fā)者可配置的編程資源,使用門(mén)檻較高,編程需要更多的人工顯式處理。 并行計(jì)算
    發(fā)表于 11-03 12:55

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--全書(shū)概覽

    GPU 中的應(yīng)用歷史 第9章 張量處理器設(shè)計(jì) 9.1 張量的定義 9.2 脈動(dòng)陣列計(jì)算單元 9.3 Volta 架構(gòu)引入張量核心 9.4 華為異騰Ascend910NPU芯片 第 10 章
    發(fā)表于 10-15 22:08

    【「大模型時(shí)代的基礎(chǔ)架構(gòu)」閱讀體驗(yàn)】+ 未知領(lǐng)域的感受

    ”,好奇于這種大模型算力中心到底是如何建設(shè)的,用什么設(shè)備、什么架構(gòu)建設(shè)的?對(duì)這些問(wèn)題真是一無(wú)所知,甚至都沒(méi)有想過(guò),帶著這份好奇開(kāi)始閱讀。 先瀏覽目錄,共分十三章,目錄中出現(xiàn)最多的就是GPU,比如機(jī)器學(xué)習(xí)
    發(fā)表于 10-08 10:40

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.43】 算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    ,即大模型專(zhuān)用AI超級(jí)計(jì)算機(jī)的中樞核心。 作者介紹: 濮元愷,曾就職于中關(guān)村在線核心硬件事業(yè)部,負(fù)責(zé)CPU和GPU類(lèi)產(chǎn)品評(píng)測(cè),長(zhǎng)期關(guān)注GPGPU并行計(jì)算相關(guān)芯片微架構(gòu)。目前量化金融
    發(fā)表于 09-02 10:09

    ai服務(wù)器是什么架構(gòu)類(lèi)型

    架構(gòu)AI服務(wù)器通常具有較高的通用性,可以運(yùn)行各種人工智能算法。但是,CPU架構(gòu)AI服務(wù)器處理大規(guī)模并行計(jì)算時(shí),性能可能不如
    的頭像 發(fā)表于 07-02 09:51 ?1235次閱讀

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片

    藥物設(shè)計(jì)、量子計(jì)算和生成式 AI 等領(lǐng)域。 為了紀(jì)念杰出的數(shù)學(xué)家David H.Blackwell,英偉達(dá) Blackwell架構(gòu)被明確設(shè)計(jì)用來(lái)滿足現(xiàn)代人工智能工作負(fù)載日益增長(zhǎng)的計(jì)算和
    發(fā)表于 05-13 17:16

    NVIDIA推出兩款基于NVIDIA Ampere架構(gòu)的全新臺(tái)式機(jī)GPU

    兩款 NVIDIA Ampere 架構(gòu) GPU工作站帶來(lái)實(shí)時(shí)光線追蹤功能和生成式 AI 工具支持。
    的頭像 發(fā)表于 04-26 11:25 ?701次閱讀

    全新NVIDIA RTX A400和A1000 GPU全面加強(qiáng)AI設(shè)計(jì)與生產(chǎn)力工作

    兩款 NVIDIA Ampere 架構(gòu) GPU工作站帶來(lái)實(shí)時(shí)光線追蹤功能和生成式 AI 工具支持。
    的頭像 發(fā)表于 04-18 10:29 ?620次閱讀

    國(guó)產(chǎn)GPUAI大模型領(lǐng)域的應(yīng)用案例一覽

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近一年多時(shí)間,隨著大模型的發(fā)展,GPUAI領(lǐng)域的重要性再次凸顯。雖然相比英偉達(dá)等國(guó)際大廠,國(guó)產(chǎn)GPU起步較晚、聲勢(shì)較小。不過(guò)近幾年,國(guó)內(nèi)不少
    的頭像 發(fā)表于 04-01 09:28 ?4129次閱讀
    國(guó)產(chǎn)<b class='flag-5'>GPU</b><b class='flag-5'>在</b><b class='flag-5'>AI</b>大模型領(lǐng)域的應(yīng)用案例一覽

    英偉達(dá)發(fā)布新一代AI芯片架構(gòu)Blackwell GPU

    近日,英偉達(dá)首席執(zhí)行官黃仁勛GTC 2024會(huì)議發(fā)表主題演講,重磅推出全新AI芯片架構(gòu)Blackwell GPU。這一創(chuàng)新技術(shù)的首款芯片
    的頭像 發(fā)表于 03-26 11:19 ?937次閱讀

    FPGA深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    上漲,因?yàn)槭聦?shí)表明,它們的 GPU 訓(xùn)練和運(yùn)行 深度學(xué)習(xí)模型 方面效果明顯。實(shí)際,英偉達(dá)也已經(jīng)對(duì)自己的業(yè)務(wù)進(jìn)行了轉(zhuǎn)型,之前它是一家純粹做 GPU 和游戲的公司,現(xiàn)在除了作為一家云
    發(fā)表于 03-21 15:19
    百家乐倍投| 娱乐场游戏| 威尼斯人娱乐城网上赌场| 模拟百家乐下载| 澳门百家乐走势图怎么看| 百家乐官网双筹码怎么出千| 天鸿德州扑克游戏币| 大发888好不好| 百家乐筹码片| 电子百家乐作假| 百家乐大西洋城| 百家乐龙虎斗| 百家乐赌博赌博平台| 百家乐平台是最好的娱乐城 | 大发888大发888官方| 大发888wofacai官网| 大发888娱乐城casino| 威尼斯人娱乐城是骗子| 威尼斯人娱乐城注册| 赢家百家乐的玩法技巧和规则| 如何玩百家乐赢钱技巧| 闲和庄百家乐娱乐场| 百家乐庄闲排| 百家乐娱乐网77scs| 百家乐诀| 月亮城百家乐的玩法技巧和规则| 茅台百家乐的玩法技巧和规则 | 百家乐官网怎么对冲打| 百家乐官网连输的时候| 网上百家乐官网看牌器| 真钱赌博网站| 芮城县| 百家乐官网3宜3忌| 百家乐官网庄闲的冷热| 邯郸百家乐官网园真钱区| 澳门百家乐官网博彩网| 百家乐官网论坛在线提供| 百家乐官网软件稳赚| 百家乐官网设备电子路| 太原百家乐官网招聘| 怎么赢百家乐官网的玩法技巧和规则|