衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

紐約大學與 NVIDIA 攜手開發(fā)能夠預測患者再入院概率的大型語言模型

NVIDIA英偉達 ? 來源:未知 ? 2023-06-14 18:35 ? 次閱讀

刊登在《自然》(Nature)上的 AI 模型 NYUTron 已被部署到紐約大學朗格尼健康中心

從醫(yī)院出院對病人來說是一座重要的里程碑,但有時這并不代表著他們已完全康復。在美國,有近 15% 的住院病人在首次出院后 30 天內(nèi)再次入院,并且往往伴隨著病情惡化與對患者及院方來說都更高的住院費用。

紐約大學學術醫(yī)療中心——紐約大學朗格尼健康中心(NYU Langone Health)的研究人員與 NVIDIA 專家攜手開發(fā)了一個可預測病人 30 天內(nèi)再入院風險以及其他臨床結果的大型語言模型(LLM)。

這個刊登在科學期刊《自然》(Nature)上的 NYUTron 模型被部署在該醫(yī)療系統(tǒng)的六座住院樓中。它能夠為醫(yī)生提供 AI 所驅(qū)動的洞察,幫助他們識別需要通過臨床干預的病人,以減少患者再入院概率。

紐約大學格羅斯曼醫(yī)學院放射學和神經(jīng)外科助理教授、NYUTron 的主要合作者 Eric Oermann 博士表示:“當你讓病人出院時,肯定不希望他們需要再回來,或者其實在當時就應該延長病人的住院時間。借助 AI 模型的分析,我們很快就能幫助臨床醫(yī)生預防或解決那些使病人面臨更高再入院風險的情況。”

到目前為止,該模型已被應用于紐約大學醫(yī)療系統(tǒng)中的 5 萬多名出院患者。它會通過電子郵件告知醫(yī)生再入院風險的預測。Oermann 的團隊接下來正計劃通過一項臨床試驗,測試依據(jù) NYUTron 的分析所采取的干預措施是否能夠降低再入院率。

應對短期再入院等風險

美國政府追蹤 30 日再入院率并以此作為醫(yī)院的護理質(zhì)量指標。再入院率高的醫(yī)療機構會被處以罰款,這項制度能夠激勵醫(yī)院改進其出院流程。

新出院的病人可能會因為感染、過度使用抗生素、過早移除手術引流管等原因而需要再入院。如果這些風險因素能夠被更早地發(fā)現(xiàn),醫(yī)生就可以通過調(diào)整治療計劃或延長病人留院觀察時間來進行干預。

Oermann 表示:“雖然自 20 世紀 80 年代以來就有了預測病人再入院的計算模型,但我們把它看作一項需要衛(wèi)生系統(tǒng)規(guī)模臨床文本語料庫的自然語言處理任務。我們使用電子健康記錄的非結構化數(shù)據(jù)訓練我們的 LLM,檢查它是否能夠捕捉到人們之前沒有考慮過的洞察。”

NYUTron 使用紐約大學朗格尼健康中心的 10 年健康記錄進行了預訓練。這些記錄由近 40 萬名病人超過 40 億字的臨床筆記組成。相比最先進的機器學習模型,該模型預測再入院的準確率提高了 10% 以上。

一旦該 LLM 為 30 天再入院的初始用例進行了訓練,該團隊就能在一周左右的時間里推出了其他四種預測算法,包括預測病人的住院時間、院內(nèi)死亡的可能性以及病人保險理賠被拒的幾率。

Oermann 表示:“經(jīng)營一家醫(yī)院在某些方面就像管理一家酒店。能夠幫助醫(yī)院更高效運營的洞察意味著醫(yī)院能夠騰出更多床位并為更多病人提供更高質(zhì)量的照護。”

從訓練到部署一個 LLM

NYUTron 是一個擁有數(shù)億參數(shù)的 LLM。它在一個由NVIDIA A100 Tensor Core GPU 組成的大型集群上使用 NVIDIA NeMo Megatron 框架訓練而成。

Oermann 表示:“如今,大部分關于語言模型的討論都圍繞著具有數(shù)十億參數(shù)的超大型通用模型,這些模型使用數(shù)百乃至數(shù)千個 GPU 在混亂的數(shù)據(jù)集上訓練而成。我們反其道而行之,使用在高度精煉的數(shù)據(jù)上訓練的中等規(guī)模的模型來完成特定醫(yī)療任務。”

為了優(yōu)化模型以便在現(xiàn)實醫(yī)院進行推理,該團隊開發(fā)了一個修改版的NVIDIA Triton 開源軟件,以便利用NVIDIA TensorRT 軟件開發(fā)工具套件簡化 AI 模型部署。

Oermann 表示:“像這樣的模型必須要高效運行才能被部署到實時醫(yī)療環(huán)境中。Triton 提供了你在一個推理框架中想要的一切,讓我們的模型能夠飛速運行。”

Oermann 的團隊發(fā)現(xiàn),在對他們的 LLM 進行預訓練后,只需使用特定醫(yī)院的數(shù)據(jù)在現(xiàn)場進行微調(diào)就能大幅提高準確率,這個特點可以幫助其他醫(yī)療機構部署類似的模型。

他表示:“并不是所有醫(yī)院都擁有完全自主訓練一個大型語言模型所需要的資源,但他們可以采用像 NYUTron 這樣的預訓練模型,然后通過云端的 GPU 使用少量本地數(shù)據(jù)樣本對模型進行微調(diào)。這對于許多醫(yī)療機構來說都是可以做到的。”

如要進一步了解 NYUTron,請閱讀《自然》期刊中的論文。點擊“閱讀原文”,點播觀看 NVIDIA 與紐約大學的相關講座。

掃描下方海報二維碼觀看 NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 COMPUTEX 2023 的主題演講直播回放,主題演講中文字幕版已上線,了解 AI、圖形及其他領域的最新進展!


原文標題:紐約大學與 NVIDIA 攜手開發(fā)能夠預測患者再入院概率的大型語言模型

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3848

    瀏覽量

    91977

原文標題:紐約大學與 NVIDIA 攜手開發(fā)能夠預測患者再入院概率的大型語言模型

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NaVILA:加州大學與英偉達聯(lián)合發(fā)布新型視覺語言模型

    日前,加州大學的研究人員攜手英偉達,共同推出了一款創(chuàng)新的視覺語言模型——NaVILA。該模型在機器人導航領域展現(xiàn)出了獨特的應用潛力,為智能機
    的頭像 發(fā)表于 12-13 10:51 ?346次閱讀

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹
    的頭像 發(fā)表于 12-06 10:28 ?181次閱讀

    語言模型開發(fā)語言是什么

    在人工智能領域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大
    的頭像 發(fā)表于 12-04 11:44 ?231次閱讀

    云端語言模型開發(fā)方法

    云端語言模型開發(fā)是一個復雜而系統(tǒng)的過程,涉及數(shù)據(jù)準備、模型選擇、訓練優(yōu)化、部署應用等多個環(huán)節(jié)。下面,AI部落小編為您分享云端語言
    的頭像 發(fā)表于 12-02 10:48 ?195次閱讀

    語言模型如何開發(fā)

    語言模型開發(fā)是一個復雜且細致的過程,涵蓋了數(shù)據(jù)準備、模型架構設計、訓練、微調(diào)和部署等多個階段。以下是對大語言
    的頭像 發(fā)表于 11-04 10:14 ?214次閱讀

    如何利用大型語言模型驅(qū)動的搜索為公司創(chuàng)造價值

    大型語言模型LLMs具有自動化內(nèi)容創(chuàng)建、提高內(nèi)容質(zhì)量及多樣化的潛力,可重塑企業(yè)與信息的交互方式。通過利用LLMs,企業(yè)能提升工作效率,降低運營成本,并獲得深入洞察。來自EgeGürdeniz
    的頭像 發(fā)表于 10-13 08:07 ?220次閱讀
    如何利用<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>驅(qū)動的搜索為公司創(chuàng)造價值

    NVIDIA CorrDiff生成式AI模型能夠精準預測臺風

    NVIDIA GPU 上運行的一個擴散模型向天氣預報工作者展示了加速計算如何實現(xiàn)新的用途并提升能效。
    的頭像 發(fā)表于 09-13 17:13 ?773次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    的表達方式和生成能力。通過預測文本中缺失的部分或下一個詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結構 Transformer架構:大語言
    發(fā)表于 08-02 11:03

    富士通與Cohere合作,專注于開發(fā)和提供大型語言模型(LLM)

    富士通(Fujitsu)與總部位于多倫多與舊金山的頂尖安全及數(shù)據(jù)隱私人工智能企業(yè)Cohere Inc.攜手宣布建立深度戰(zhàn)略合作伙伴關系,共同致力于大型語言模型(LLM)的創(chuàng)新與
    的頭像 發(fā)表于 07-16 16:55 ?538次閱讀

    NVIDIA與百度飛槳攜手革新汽車風阻預測:DNNFluid-Car模型的崛起

    在追求更高效、更環(huán)保的汽車設計浪潮中,NVIDIA與百度飛槳攜手突破傳統(tǒng)界限,共同研發(fā)了一款革命性的3D高精度汽車風阻預測模型——DNNFluid-Car。這款
    的頭像 發(fā)表于 07-09 14:56 ?1701次閱讀

    英偉達開源Nemotron-4 340B系列模型,助力大型語言模型訓練

    近日,英偉達宣布開源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開發(fā)者們打開了通往高性能大型語言模型(LLM)訓練的新天地
    的頭像 發(fā)表于 06-17 14:53 ?634次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    能力,它缺乏真正的“思考”過程。對于任何輸入,大語言模型都會產(chǎn)生輸出,但這僅僅是基于計算和預測下一個Token出現(xiàn)的概率模型并不清楚自己的
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    的特征,并且這些特征融合了這些詞在當前序列的上下文語義,因此能夠解決一詞多義的問題。憑借這種優(yōu)勢,基于動態(tài)詞向量語言模型進行預訓練的方法被廣泛應用于自然語言處理任務中。 經(jīng)典結構
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    獲得良好效果。 語言模型作為自然語言處理的核心,不斷進化以捕捉人類語言的精髓。起初,這些模型依賴于統(tǒng)計方法,如n-gram
    發(fā)表于 05-04 23:55

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?637次閱讀
    333娱乐城| 澳门百家乐有没有假| 欢乐谷百家乐官网的玩法技巧和规则 | 百家乐官网制胜软件| 游戏机百家乐官网庄闲| 致胜百家乐官网的玩法技巧和规则 | 百家乐官网赢家打法| 百家乐官网发牌靴遥控| 百家乐官网如何切牌好| 黄金城百家乐官网下载| 德州百家乐官网21点桌| 百家乐游戏分析| MG百家乐大转轮| 新全讯网网站xb112| 亲朋棋牌捕鱼辅助| 昌都县| 澳门百家乐官网玩大小| 巴黎百家乐官网地址| 百家乐官网赌场论坛| 百家乐官网太阳娱乐网| 滨海湾百家乐娱乐城| 百家乐路子分| 顶级赌场网址| 平陆县| 伯爵百家乐官网娱乐平台| 百家乐拍是什么| 百家乐英皇娱乐平台| 大发888 df888| 长春市| 三星百家乐官网的玩法技巧和规则 | 至尊国际娱乐| 凯旋门百家乐官网娱乐城| 澳门百家乐官网博客| 百家乐实时路单| 全讯网77| 百家乐官网最低压多少| 利博百家乐官网的玩法技巧和规则 | 百家乐有真假宝单吗| 威尼斯人娱乐城信誉好不好| 大家旺娱乐| 盛大百家乐官网的玩法技巧和规则 |