衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Prompt范式你們了解多少

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:李rumor ? 作者:rumor ? 2021-09-10 10:22 ? 次閱讀

卷友們好,我是rumor。

之前我學(xué)習(xí)Prompt范式的源起PET后就鴿了很久,相信卷友們已經(jīng)把Prompt的論文都追完了,把我遠(yuǎn)遠(yuǎn)地落在了后面。周末我不甘被卷,奮起直追,連刷三篇paper,希望能趕上大家學(xué)習(xí)的步伐。

Prefix-tuning- Optimizing continuous prompts for generation

P-tuning-GPT Understands, Too

Prompt-tuning-The Power of Scale for Parameter-Efficient Prompt Tuning

自動(dòng)化Prompt

Prompt范式的第一個(gè)階段,就是在輸入上加Prompt文本,再對(duì)輸出進(jìn)行映射。但這種方式怎么想都不是很優(yōu)雅,無(wú)法避免人工的介入。即使有方法可以批量挖掘,但也有些復(fù)雜(有這個(gè)功夫能標(biāo)不少高質(zhì)量語(yǔ)料),而且模型畢竟是黑盒,對(duì)離散文本輸入的魯棒性很差:

323a6c1c-112f-11ec-8fb8-12bb97331649.jpg

怎么辦呢?離散的不行,那就連續(xù)的唄

用固定的token代替prompt,拼接上文本輸入,當(dāng)成特殊的embedding輸入,這樣在訓(xùn)練時(shí)也可以對(duì)prompt進(jìn)行優(yōu)化,就減小了prompt挖掘、選擇的成本。

如何加入Prompt

前面的想法非常單純,但實(shí)際操作起來(lái)還是需要些技巧的。

Prefix-tuning

Prefix-tuning是做生成任務(wù),它根據(jù)不同的模型結(jié)構(gòu)定義了不同的Prompt拼接方式,在GPT類(lèi)的自回歸模型上采用[PREFIX, x, y],在T5類(lèi)的encoder-decoder模型上采用[PREFIX, x, PREFIX‘, y]:

3246ea32-112f-11ec-8fb8-12bb97331649.jpg

值得注意的還有三個(gè)改動(dòng):

把預(yù)訓(xùn)練大模型freeze住,因?yàn)榇竽P?a target="_blank">參數(shù)量大,精調(diào)起來(lái)效率低,畢竟prompt的出現(xiàn)就是要解決大模型少樣本的適配

作者發(fā)現(xiàn)直接優(yōu)化Prompt參數(shù)不太穩(wěn)定,加了個(gè)更大的MLP,訓(xùn)練完只保存MLP變換后的參數(shù)就行了

實(shí)驗(yàn)證實(shí)只加到embedding上的效果不太好,因此作者在每層都加了prompt的參數(shù),改動(dòng)較大

P-tuning

P-tuning是稍晚些的工作,主要針對(duì)NLU任務(wù)。對(duì)于BERT類(lèi)雙向語(yǔ)言模型采用模版(P1, x, P2, [MASK], P3),對(duì)于單向語(yǔ)言模型采用(P1, x, P2, [MASK]):

3254d11a-112f-11ec-8fb8-12bb97331649.jpg

同時(shí)加了兩個(gè)改動(dòng):

考慮到預(yù)訓(xùn)練模型本身的embedding就比較離散了(隨機(jī)初始化+梯度傳回來(lái)小,最后只是小范圍優(yōu)化),同時(shí)prompt本身也是互相關(guān)聯(lián)的,所以作者先用LSTM對(duì)prompt進(jìn)行編碼

在輸入上加入了anchor,比如對(duì)于RTE任務(wù),加上一個(gè)問(wèn)號(hào)變成[PRE][prompt tokens][HYP]?[prompt tokens][MASK]后效果會(huì)更好

P-tuning的效果很好,之前的Prompt模型都是主打小樣本效果,而P-tuning終于在整個(gè)數(shù)據(jù)集上超越了精調(diào)的效果:

32612dde-112f-11ec-8fb8-12bb97331649.jpg

雖然P-tuning效果好,但實(shí)驗(yàn)對(duì)比也有些問(wèn)題,它沒(méi)有freeze大模型,而是一起精調(diào)的,相當(dāng)于引入了額外的輸入特征,而平時(shí)我們?cè)谳斎爰觽€(gè)詞法句法信息也會(huì)有提升,所以不能完全肯定這個(gè)效果是prompt帶來(lái)的。同時(shí)隨著模型尺寸增大,精調(diào)也會(huì)更難。

Prompt-tuning

Prompt-tuning就更加有信服力一些,純憑Prompt撬動(dòng)了大模型。

Prompt-tuning給每個(gè)任務(wù)定義了自己的Prompt,拼接到數(shù)據(jù)上作為輸入,同時(shí)freeze預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,在沒(méi)有加額外層的情況下,可以看到隨著模型體積增大效果越來(lái)越好,最終追上了精調(diào)的效果:

326f312c-112f-11ec-8fb8-12bb97331649.jpg

同時(shí),Prompt-tuning還提出了Prompt-ensembling,也就是在一個(gè)batch里同時(shí)訓(xùn)練同一個(gè)任務(wù)的不同prompt,這樣相當(dāng)于訓(xùn)練了不同「模型」,比模型集成的成本小多了。

其他Trick

除了怎么加Prompt之外,Prompt向量的初始化和長(zhǎng)度也有所講究。

Prompt初始化

Prefix-tuning采用了任務(wù)相關(guān)的文字進(jìn)行初始化,而Prompt-tuning發(fā)現(xiàn)在NLU任務(wù)上用label文本初始化效果更好。不過(guò)隨著模型尺寸的提升,這種gap也會(huì)最終消失。

3285c892-112f-11ec-8fb8-12bb97331649.jpg

Prompt長(zhǎng)度

從Prompt-tuning的實(shí)驗(yàn)可以看到,長(zhǎng)度在10-20時(shí)的表現(xiàn)已經(jīng)不錯(cuò)了,同時(shí)這個(gè)gap也會(huì)隨著模型尺寸的提升而減小。

329143c0-112f-11ec-8fb8-12bb97331649.jpg

總結(jié)

要說(shuō)上次看PET時(shí)我對(duì)Prompt范式還是將信將疑,看完這幾篇之后就比較認(rèn)可了。尤其是Prompt-tuning的一系列實(shí)驗(yàn),確實(shí)證明了增加少量可調(diào)節(jié)參數(shù)可以很好地運(yùn)用大模型,并且模型能力越強(qiáng),所需要的prompt人工調(diào)參就越少。

這種參數(shù)化Prompt的方法除了避免「人工」智能外,還有一方面就是省去了Y的映射。因?yàn)樵诰{(diào)的過(guò)程中,模型的輸出就被拿捏死了,而且Prompt-tuning還用label初始化Prompt,更加讓模型知道要輸出啥。

Finally,終于追上了前沿,大家的鬼點(diǎn)子可真多啊。

來(lái)源:李rumor

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • PET
    PET
    +關(guān)注

    關(guān)注

    1

    文章

    44

    瀏覽量

    18732
  • MLPM
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    6817
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    2685

原文標(biāo)題:Prompt范式,真香

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    大家好呀,新手報(bào)到,請(qǐng)多多關(guān)照,愛(ài)你們呦!!!

    大家好呀,新手報(bào)到,請(qǐng)多多關(guān)照,愛(ài)你們呦!!!
    發(fā)表于 01-18 22:33

    大家好呀,新手報(bào)到,請(qǐng)多多關(guān)照,愛(ài)你們呦!

    大家好呀,新手報(bào)到,請(qǐng)多多關(guān)照,愛(ài)你們呦!
    發(fā)表于 01-18 22:32

    西湖大學(xué):科學(xué)家+AI,科研新范式的樣本

    研究,創(chuàng)新科研新范式。這一點(diǎn)在西湖大學(xué)的科研項(xiàng)目中已得到體現(xiàn)。 成立于2018年的西湖大學(xué)是由施一公院士領(lǐng)銜創(chuàng)辦的、聚焦前沿科學(xué)研究的研究型大學(xué),該校鼓勵(lì)科學(xué)家們探索AI與各學(xué)科交叉融合,為科研創(chuàng)新提速。為此,西湖大學(xué)在浪潮信息等企業(yè)助力下打造
    的頭像 發(fā)表于 12-12 15:59 ?250次閱讀
    西湖大學(xué):科學(xué)家+AI,科研新<b class='flag-5'>范式</b>的樣本

    第四范式前三季度營(yíng)收穩(wěn)健增長(zhǎng)

    近日,第四范式發(fā)布了其2024年前9個(gè)月的核心業(yè)務(wù)進(jìn)展報(bào)告。報(bào)告顯示,公司在這一期間取得了顯著的營(yíng)收增長(zhǎng),累計(jì)收入達(dá)到人民幣32.18億元,同比增長(zhǎng)了26.1%。同時(shí),公司的毛利潤(rùn)也實(shí)現(xiàn)了穩(wěn)步增長(zhǎng)
    的頭像 發(fā)表于 11-20 10:57 ?391次閱讀

    東軟引領(lǐng)醫(yī)院智慧服務(wù)新范式

    近日,國(guó)際數(shù)據(jù)公司(IDC)發(fā)布Vendor Profile《東軟集團(tuán):引領(lǐng)“以健康為中心”的醫(yī)院智慧服務(wù)新范式》(Doc# CHC52670524,2024年11月)研究報(bào)告。
    的頭像 發(fā)表于 11-19 10:28 ?283次閱讀

    AI對(duì)話(huà)魔法 Prompt Engineering 探索指南

    作者:京東物流 李雪婷 一、什么是 Prompt Engineering? 想象一下,你在和一個(gè)智能助手聊天,你需要說(shuō)出非常清晰和具體的要求,才能得到你想要的答案。Prompt
    的頭像 發(fā)表于 11-07 10:11 ?918次閱讀
    AI對(duì)話(huà)魔法 <b class='flag-5'>Prompt</b> Engineering 探索指南

    HarmonyOS NEXT應(yīng)用元服務(wù)開(kāi)發(fā)控件狀態(tài)變化場(chǎng)景

    例如下圖,播放暫停按鈕對(duì)應(yīng)著兩種狀態(tài),在狀態(tài)切換時(shí)需要實(shí)時(shí)變化對(duì)應(yīng)的標(biāo)注信息。 import prompt from \'@system.prompt\' const
    發(fā)表于 10-28 15:13

    PPEC:零成本技術(shù)交底,賦能電源開(kāi)發(fā)新范式

    。二、電源開(kāi)發(fā)方案合作 PPEC電源開(kāi)發(fā)模式:基于客戶(hù)需求進(jìn)行樣機(jī)研發(fā),并交付全套開(kāi)發(fā)生產(chǎn)技術(shù)資料,研發(fā)費(fèi)用可抵PPEC芯片貨款,實(shí)現(xiàn)“0“成本技術(shù)交底,賦能電源開(kāi)發(fā)新范式。▍客戶(hù)需求:客戶(hù)提出需求
    發(fā)表于 09-06 19:06

    MEMS諧振傳感器新范式:熱噪聲驅(qū)動(dòng)的傳感器的可行性與動(dòng)態(tài)檢測(cè)性能

    resonant sensors”的研究論文,提出了一種新的微納諧振傳感器范式——熱噪聲驅(qū)動(dòng)的諧振傳感器, 構(gòu)建了該范式下傳感器信噪比、動(dòng)態(tài)范圍與頻率穩(wěn)定性等性能指標(biāo)的理論框架,并實(shí)驗(yàn)驗(yàn)證了熱噪聲驅(qū)動(dòng)的傳感器的可行性與動(dòng)態(tài)檢測(cè)性能,為納米尺度下可在室溫和常壓下工作、更簡(jiǎn)
    的頭像 發(fā)表于 06-29 10:57 ?1.1w次閱讀
    MEMS諧振傳感器新<b class='flag-5'>范式</b>:熱噪聲驅(qū)動(dòng)的傳感器的可行性與動(dòng)態(tài)檢測(cè)性能

    esp32 console顯示丟失第一個(gè)字符的原因?

    uart_config = ESP_CONSOLE_DEV_UART_CONFIG_DEFAULT(); /* Prompt to be printed before each line. * This can
    發(fā)表于 06-19 07:49

    以守為攻,零信任安全防護(hù)能力的新范式

    (Zero Trust Security)被提出,并逐漸成為提升網(wǎng)絡(luò)安全防護(hù)能力的新范式。本文主要探討攻擊路徑的演變、零信任體系在各個(gè)階段的防護(hù)作用,并探討零信任體系未來(lái)可能的發(fā)展方向。 攻擊路徑 攻擊路徑是指攻擊者利用一系列的步驟和方法,在
    的頭像 發(fā)表于 05-27 10:18 ?1029次閱讀
    以守為攻,零信任安全防護(hù)能力的新<b class='flag-5'>范式</b>

    你們能用定時(shí)器能達(dá)到1us的精度嗎?

    你們能用定時(shí)器能達(dá)到1us的精度么
    發(fā)表于 05-16 07:19

    鴻蒙ArkUI:【從代碼到UI顯示的整體渲染流程】

    方舟開(kāi)發(fā)框架(簡(jiǎn)稱(chēng)ArkUI)是鴻蒙開(kāi)發(fā)的UI框架,提供如下兩種開(kāi)發(fā)范式,我們 **只學(xué)聲明式開(kāi)發(fā)范式**
    的頭像 發(fā)表于 05-13 16:06 ?1026次閱讀
    鴻蒙ArkUI:【從代碼到UI顯示的整體渲染流程】

    STM8L151G6串口進(jìn)不了中斷的原因?

    (); __enable_interrupt();//**************開(kāi)總中斷 while (1) { /*Prompt_Tone(4); delay_ms(500); Prompt_Tone(0
    發(fā)表于 04-30 07:48

    復(fù)盤(pán)與分析:Sora是如何成功的?

    從技術(shù)路線(xiàn)看,依舊遵從LLM范式“大力出奇跡”,通過(guò)patches向量化與transformer架構(gòu)結(jié)合,使得訓(xùn)練數(shù)據(jù)能夠使用大小、尺寸、分辨率不同的視頻,能夠讓模型學(xué)習(xí)到視頻的規(guī)律乃至世界的規(guī)律;使用GPT生成prompt,在訓(xùn)練和推理過(guò)程中解決了模態(tài)之間的對(duì)齊問(wèn)題,大
    的頭像 發(fā)表于 02-25 16:44 ?660次閱讀
    復(fù)盤(pán)與分析:Sora是如何成功的?
    bet365.com| 万豪国际娱乐网| 百家乐赌场现金网平台排名| 广州百家乐官网赌场娱乐网规则| 百家乐网址官网| 百家乐游戏全讯网2| 电子百家乐官网作假| 百家乐官网玩法和技巧| 易胜博娱乐城| 大发888 casino exe| 百家乐透视牌靴| 百家乐园胎教网| 赌百家乐官网的玩法技巧和规则 | 德州扑克规则视频| 爱拼百家乐的玩法技巧和规则| 百家乐网址哪里有| 百家乐官网娱乐平台开户| 百家乐官网大小是什么| 网上现金百家乐| bet365会员注册| 大发888冲值| 互联网百家乐的玩法技巧和规则| 百家乐注册送彩金平台| 百家乐官网庄家必赢诀窍| 真人百家乐官网海立方| 石屏县| 香港六合彩开奖结果网| 大发888小陆| 威尼斯人娱乐城存款多少起存| 百家乐赌博工具| 真人百家乐平台下载| 百家乐游戏群号| 百家乐官网德州扑克桌布| 电脑百家乐官网的玩法技巧和规则| 职业赌百家乐官网技巧| 三易博娱乐场| 大发888游戏交易平台| 威尼斯人娱乐城演唱会| 累积式百家乐的玩法技巧和规则| 百家乐看图赢| 网上百家乐是假还是真的|