衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何最好地使用所有可用的 LLM 工具

Qxwdz168 ? 來(lái)源:計(jì)算機(jī)視覺(jué)芯片設(shè)計(jì) ? 2023-05-23 17:22 ? 次閱讀

許多企業(yè)(OpenAI、AI21、CoHere 等)正在提供 LLM 作為服務(wù),因?yàn)樗鼈冊(cè)谏虡I(yè)、科學(xué)和金融環(huán)境中具有誘人的潛力。雖然 GPT-4 和其他 LLM 在諸如問(wèn)答等任務(wù)上展示了破紀(jì)錄的性能,但它們?cè)诟咄掏铝繎?yīng)用程序中的使用可能會(huì)非常昂貴。例如,使用 GPT-4 協(xié)助客戶(hù)服務(wù)可能會(huì)使小型企業(yè)每月花費(fèi)超過(guò) 21,000 美元,而 ChatGPT 預(yù)計(jì)每天花費(fèi)超過(guò) 700,000 美元。使用最大的 LLM 需要付出高昂的貨幣代價(jià),并對(duì)環(huán)境和社會(huì)產(chǎn)生嚴(yán)重的負(fù)面影響。

研究表明,許多 LLM 可以通過(guò) API 以各種定價(jià)獲得。使用 LLM API 的成本通常分為三個(gè)部分:

提示成本(與提示的持續(xù)時(shí)間成比例)
生成成本(與生成長(zhǎng)度成比例)
每個(gè)問(wèn)題的固定費(fèi)用。
鑒于價(jià)格和質(zhì)量的廣泛差異,從業(yè)者可能很難決定如何最好地使用所有可用的 LLM 工具。此外,如果服務(wù)中斷,則依賴(lài)單個(gè) API 提供者是不可靠的,這可能發(fā)生在意外高需求的情況下。

上傳失敗,網(wǎng)絡(luò)異常。

重試

當(dāng)前模型級(jí)聯(lián)和 FrugalML 等模型集成范例未考慮 LLM 的局限性,這些范例是為具有固定標(biāo)簽集的預(yù)測(cè)任務(wù)開(kāi)發(fā)的。

斯坦福大學(xué)最近的研究提出了一個(gè)名為 FrugalGPT 的預(yù)算友好型框架的概念,它利用 LLM API 來(lái)處理自然語(yǔ)言查詢(xún)。

及時(shí)適應(yīng)、LLM 近似和 LLM 級(jí)聯(lián)是降低成本的三種主要方法。為了節(jié)省開(kāi)支,提示適應(yīng)調(diào)查了確定哪些提示最有效的方法。通過(guò)近似復(fù)雜且昂貴的 LLM,可以開(kāi)發(fā)更簡(jiǎn)單且更具成本效益的替代方案,其性能與原始方案一樣好。 LLM 級(jí)聯(lián)的關(guān)鍵思想是為各種查詢(xún)動(dòng)態(tài)選擇合適的 LLM API。

實(shí)施并評(píng)估了基于 LLM 級(jí)聯(lián)構(gòu)建的 FrugalGPT 基本版本,以展示這些想法的潛力。對(duì)于每個(gè)數(shù)據(jù)集和任務(wù),F(xiàn)rugalGPT 學(xué)習(xí)如何自適應(yīng)地將數(shù)據(jù)集中的問(wèn)題分類(lèi)到 LLM 的各種組合,例如 ChatGPT、GPT-3 和 GPT-4。與最好的單個(gè) LLM API 相比,F(xiàn)rugalGPT 節(jié)省了高達(dá) 98% 的推理成本,同時(shí)在下游任務(wù)上保持相同的性能。另一方面,F(xiàn)rugalGPT 可以以相同的價(jià)格實(shí)現(xiàn)高達(dá) 4% 的性能提升。

FrugalGPT 的 LLM 級(jí)聯(lián)技術(shù)需要對(duì)標(biāo)記示例進(jìn)行訓(xùn)練。此外,為了使級(jí)聯(lián)有效,訓(xùn)練和測(cè)試示例應(yīng)該具有相同或相似的分布。此外,掌握LLM級(jí)聯(lián)也需要時(shí)間和精力。

FrugalGPT 尋求性能和成本之間的平衡,但其他因素,包括延遲、公平性、隱私和環(huán)境影響,在實(shí)踐中更為重要。該團(tuán)隊(duì)認(rèn)為,未來(lái)的研究應(yīng)側(cè)重于在不犧牲性能或成本效益的情況下將這些功能納入優(yōu)化方法。 LLM 生成的結(jié)果的不確定性也需要仔細(xì)量化以用于風(fēng)險(xiǎn)關(guān)鍵型應(yīng)用。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    1511

    瀏覽量

    62396
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1209

    瀏覽量

    24834
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    291

    瀏覽量

    13400
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    299

    瀏覽量

    400

原文標(biāo)題:斯坦福研究人員介紹 FrugalGPT:一種新的 AI 框架,用于 LLM API 處理自然語(yǔ)言查詢(xún)

文章出處:【微信號(hào):計(jì)算機(jī)視覺(jué)芯片設(shè)計(jì),微信公眾號(hào):計(jì)算機(jī)視覺(jué)芯片設(shè)計(jì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    對(duì)比解碼在LLM上的應(yīng)用

    為了改進(jìn)LLM的推理能力,University of California聯(lián)合Meta AI實(shí)驗(yàn)室提出將Contrastive Decoding應(yīng)用于多種任務(wù)的LLM方法。實(shí)驗(yàn)表明,所提方法能有效改進(jìn)LLM的推理能力。讓我們走進(jìn)
    發(fā)表于 09-21 11:37 ?667次閱讀
    對(duì)比解碼在<b class='flag-5'>LLM</b>上的應(yīng)用

    有什么好用的verilog HDL編輯工具可用

    有什么好用的verilog HDL編輯工具可用最好能集成實(shí)時(shí)的verilog HDL語(yǔ)法檢測(cè)、自定義模塊識(shí)別觸發(fā)等功能,最好能夠免費(fèi);
    發(fā)表于 04-28 11:00

    部落沖突輔助工具終極推薦:免root離線(xiàn)掛機(jī)【本人用過(guò)所有輔助中最好的】

    部落沖突輔助工具終極推薦:免root離線(xiàn)掛機(jī)【本人用過(guò)所有輔助中最好的】相信很多小伙伴都玩部落沖突好久了,偶也是,為了節(jié)省時(shí)間、精力升本,有時(shí)候會(huì)借助下工具,哈哈!部落沖突輔助
    發(fā)表于 02-24 11:56

    最好的殺木馬清除工具

    推薦最強(qiáng)最好的殺木馬清除工具AVGAnti-Spyware--極致安全完美防護(hù).針對(duì)因特網(wǎng)上傳播的新一代安全威脅的有效解決方案.確保您的數(shù)據(jù)安全,保護(hù)您的隱私,抵御間諜軟件,廣告軟件,木馬
    發(fā)表于 01-17 13:19 ?47次下載

    最好的最強(qiáng)的殺木馬工具

    最好的最強(qiáng)的殺木馬工具,AVG Anti-Spyware -- 極致安全 完美防護(hù).針對(duì)因特網(wǎng)上傳播的新一代安全威脅的有效解決方案.確保您的數(shù)據(jù)安全,保護(hù)您的隱私,抵御間諜軟件,廣告軟件,
    發(fā)表于 07-17 10:39 ?15次下載

    Microsoft已經(jīng)確認(rèn)它將很快可用所有兼容設(shè)備

    到目前為止,該新功能只能由Windows Insider程序的代表進(jìn)行測(cè)試。誰(shuí)已收到Build 20185的更新。Microsoft已經(jīng)確認(rèn)它將很快可用所有兼容設(shè)備。
    的頭像 發(fā)表于 09-25 16:39 ?2192次閱讀

    如何用旁路工具提升網(wǎng)絡(luò)可用性?

    在將內(nèi)聯(lián)安全工具構(gòu)建到您的網(wǎng)絡(luò)中時(shí),結(jié)合網(wǎng)絡(luò)旁路技術(shù)是避免代價(jià)高昂的網(wǎng)絡(luò)停機(jī)時(shí)間的基本最佳實(shí)踐。簡(jiǎn)而言之,旁路 TAP,也稱(chēng)為“旁路交換機(jī)”,能夠隨時(shí)管理內(nèi)聯(lián)工具可用性,而無(wú)需中斷網(wǎng)絡(luò)或影響業(yè)務(wù)
    的頭像 發(fā)表于 06-25 14:41 ?1348次閱讀

    中國(guó)研究人員提出StructGPT,提高LLM對(duì)結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

    盡管結(jié)構(gòu)化數(shù)據(jù)的體量往往非常巨大,但不可能容納輸入提示中的所有數(shù)據(jù)記錄(例如,ChatGPT 的最大上下文長(zhǎng)度為 4096)。將結(jié)構(gòu)化數(shù)據(jù)線(xiàn)性化為 LLM 可以輕松掌握的語(yǔ)句是解決此問(wèn)題的簡(jiǎn)單方法。工具操作技術(shù)激勵(lì)他們?cè)鰪?qiáng)
    的頭像 發(fā)表于 05-24 16:02 ?3110次閱讀
    中國(guó)研究人員提出StructGPT,提高<b class='flag-5'>LLM</b>對(duì)結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

    NVIDIA AI Foundation Models:使用生產(chǎn)就緒型 LLM 構(gòu)建自定義企業(yè)聊天機(jī)器人和智能副駕

    ? 系列基礎(chǔ)模型是一套功能強(qiáng)大的全新工具可用于為企業(yè)構(gòu)建生產(chǎn)就緒生成式 AI 應(yīng)用,從而推動(dòng)從客服 AI 聊天機(jī)器人到尖端 AI 產(chǎn)品的各種創(chuàng)新。 這些新的基礎(chǔ)模型現(xiàn)已加入? NVIDIA NeMo 。這個(gè)端到端框架用于構(gòu)建、自定義和部署專(zhuān)為企業(yè)定制的
    的頭像 發(fā)表于 11-17 21:35 ?942次閱讀
    NVIDIA AI Foundation Models:使用生產(chǎn)就緒型 <b class='flag-5'>LLM</b> 構(gòu)建自定義企業(yè)聊天機(jī)器人和智能副駕

    什么是LLMLLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語(yǔ)言模型(Large Language Model,簡(jiǎn)稱(chēng)LLM)逐漸成為自然語(yǔ)言處理(NLP)領(lǐng)域的研究熱點(diǎn)。LLM以其強(qiáng)大的文本生成、理解和推理能力,在文本
    的頭像 發(fā)表于 07-02 11:45 ?9029次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    在本文中,我們將深入探討LLM(Large Language Model,大型語(yǔ)言模型)的應(yīng)用領(lǐng)域。LLM是一種基于深度學(xué)習(xí)的人工智能技術(shù),它能夠理解和生成自然語(yǔ)言文本。近年來(lái),隨著計(jì)算能力的提高
    的頭像 發(fā)表于 07-09 09:52 ?728次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語(yǔ)言模型)是一種深度學(xué)習(xí)模型,主要用于處理自然語(yǔ)言處理(NLP)任務(wù)。LLM模型的格式多種多樣,以下是一些常見(jiàn)的LLM模型格式
    的頭像 發(fā)表于 07-09 09:59 ?735次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語(yǔ)言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)LLM大模型推理加速關(guān)鍵技術(shù)的詳細(xì)探討,內(nèi)容將涵蓋模型壓縮、解碼方法優(yōu)化、底層優(yōu)化、分布式并行推理以及特定框架和
    的頭像 發(fā)表于 07-24 11:38 ?1015次閱讀

    LLM和傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能領(lǐng)域,LLM(Large Language Models,大型語(yǔ)言模型)和傳統(tǒng)機(jī)器學(xué)習(xí)是兩種不同的技術(shù)路徑,它們?cè)谔幚頂?shù)據(jù)、模型結(jié)構(gòu)、應(yīng)用場(chǎng)景等方面有著顯著的差異。 1. 模型結(jié)構(gòu)
    的頭像 發(fā)表于 11-08 09:25 ?768次閱讀

    什么是LLMLLM在自然語(yǔ)言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)領(lǐng)域迎來(lái)了革命性的進(jìn)步。其中,大型語(yǔ)言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語(yǔ)言理解能力的一次飛躍。LLM通過(guò)深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得機(jī)器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?1050次閱讀
    百家乐官网客户端皇冠| 怎样玩百家乐的玩法技巧和规则| 百家乐官网投注杀手| 大发888下载客户端| 沙龙百家乐官网娱乐平台| 永利博| 做生意摆放老虎好不好| 百家乐官网不倒翁注码| 网上百家乐游戏玩法 | 大发888客户端de 软件| 租nongcun房看风水做生意的| 百家乐官网三珠连跳打法| 棋牌室标语| 百家乐實戰後二穩賺| 英皇百家乐官网的玩法技巧和规则 | 百家乐官网筹码防伪定制| 时时彩论坛| 威尼斯人娱乐场28| 百家乐浴盆博彩通排名| 百家乐官网皇室百家乐官网的玩法技巧和规则| 百家乐官网策略| 百家乐合作| 澳门百家乐娱乐城送体验金| 缅甸百家乐官网网络赌博解谜| 网络赌场| 大发888棋牌| 法拉利百家乐的玩法技巧和规则 | 定西市| 百家乐官网园天将| 百家乐官网投注法减注| 六合彩开奖直播| 大发888娱乐城下载lm0| 星际百家乐娱乐城| 百家乐游戏百家乐| 菲利宾百家乐官网现场| 3d俄罗斯轮盘| 德州扑克发牌员| 幸运水果机小游戏| 金满堂百家乐的玩法技巧和规则 | 缅甸百家乐官网赌博现场下载 | 首席百家乐的玩法技巧和规则|