近日,vLLM項目宣布正式成為PyTorch生態系統的一部分,標志著該項目與PyTorch的合作進入了一個全新的階段。本文將從以下幾個方面進行介紹,特別提醒:安裝方案在第四個部分,可選擇性閱讀。
vLLM項目概述
vLLM的成就與實際應用
支持流行模型
安裝與使用vLLM
總結
一,vLLM項目概述
vLLM是一個為大型語言模型(LLMs)設計的高吞吐量、內存高效的推理和服務引擎。該項目最初基于創新的PagedAttention算法構建,如今已經發展成為一個全面的、最先進的推理引擎。vLLM社區不斷為其添加新功能和優化,包括流水線并行處理、分塊預填充、推測性解碼和分離服務。
二,vLLM的成就與實際應用
自發布以來,vLLM獲得了超過31,000個GitHub星標,這一成就證明了其受歡迎程度和社區的活力。vLLM與PyTorch的深度集成,使其能夠支持包括NVIDIA GPU、AMD GPU、Google Cloud TPU在內的多種硬件后端,確保了跨平臺的兼容性和性能優化。
在今年的亞馬遜Prime Day,vLLM在向數百萬用戶提供快速響應中發揮了關鍵作用。它在三個區域的80,000個Trainium和Inferentia芯片上,每分鐘處理了300萬個令牌,同時保持了P99延遲在1秒以內的首次響應。這意味著,當客戶與亞馬遜應用中的Rufus聊天時,他們實際上是在與vLLM互動。
三,支持流行模型
vLLM與領先的模型供應商緊密合作,支持包括Meta LLAMA、Mistral、QWen和DeepSeek在內的流行模型。特別值得一提的是,vLLM作為首發合作伙伴,首次啟用了LLAMA 3.1(405B)模型,展示了其處理復雜和資源密集型語言模型的能力。
四,安裝與使用vLLM
安裝vLLM非常簡單,用戶只需在命令行中運行:
pip install vllm
vLLM既可以作為OpenAI API兼容服務器運行,也可以作為一個簡單的函數使用。以下是如何使用vLLM生成文本的示例代碼:
vllm serve meta-llama/Llama-3.1-8B
將vLLM作為簡單函數運行:
from vllm import LLM, SamplingParams
五,總結
隨著vLLM的加入,PyTorch生態系統更加強大,為LLM服務帶來了便捷和高效。期待vLLM在未來解鎖更多創新,推動AI技術的普及和發展
如果你有更好的文章,歡迎投稿!
稿件接收郵箱:nami.liu@pasuntech.com
更多精彩內容請關注“算力魔方?”!
審核編輯 黃宇
-
英特爾
+關注
關注
61文章
10007瀏覽量
172335 -
pytorch
+關注
關注
2文章
808瀏覽量
13361 -
LLM
+關注
關注
0文章
299瀏覽量
400
發布評論請先 登錄
相關推薦
Arm KleidiAI助力提升PyTorch上LLM推理性能
![Arm KleidiAI助力提升<b class='flag-5'>PyTorch</b>上<b class='flag-5'>LLM</b><b class='flag-5'>推理</b>性能](https://file1.elecfans.com/web3/M00/00/E4/wKgZPGdOysaATeYKAAAY2NNU9IY784.png)
對三星而言開放生態系統是什么
倒計時1天 | 第三屆OpenHarmony技術大會——明天,上海見!
跨越地理限制:動態海外住宅IP技術引領全球化網絡新紀元
能耗管理系統新紀元:智能科技引領綠色生活風尚
LLM大模型推理加速的關鍵技術
OpenAI草莓項目:引領人工智能向類人推理新紀元邁進
tensorflow和pytorch哪個更簡單?
淺談AMD Ryzen AI PC生態系統
萊迪思舉辦2024萊迪思技術峰會展示其強大的FPGA合作生態系統
HTX DAO生態系統已加入19個重要建設者,共同為HTX DAO生態做出貢獻
![HTX DAO<b class='flag-5'>生態系統</b>已<b class='flag-5'>加入</b>19個重要建設者,共同為HTX DAO<b class='flag-5'>生態</b>做出貢獻](https://file1.elecfans.com//web2/M00/C0/77/wKgZomXVuFWAHmtFAAHVTdRpyDI065.png)
RA生態系統合作伙伴解決方案提供卓越的平面航向和6軸IMU性能
![RA<b class='flag-5'>生態系統</b>合作伙伴解決方案提供卓越的平面航向和6軸IMU性能](https://file.elecfans.com/web1/M00/D9/4E/pIYBAF_1ac2Ac0EEAABDkS1IP1s689.png)
評論