衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于用于自然語言生成的“語境調優”技術

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2022-10-14 15:38 ? 次閱讀

一、引言

自然語言生成(又稱為文本生成)旨在基于輸入數據用人類語言生成合理且可讀的文本。隨著預訓練語言模型的發展,GPT-3,BART等模型逐漸成為了生成任務的主流模型。近年來,為了利用預訓練階段編碼的豐富知識,提示學習成為了一個簡單而強大的方法。

這篇工作主要聚焦于開放式文本生成,例如故事生成和評論生成。在這種場景下,輸入僅包含有限的信息,而任務目標是要生成富含信息量且與主題相關的長文本。例如下表中的例子,我們需要寫一段關于“live-action”和“animation”的評論,這需要對這兩個主題的背景信息有深入的了解。現有的提示學習方法,會在輸入前加上人工的離散提示(例如表中的“Write a story about:”),或者在輸入前加上可學習的連續型提示。但是這些提示是靜態的,更多是包含任務相關的信息,但與輸入無關,很難依靠他們去生成富含信息量的文本。

61060508-4ade-11ed-a3b6-dac502259ad0.jpg

同時在長文本生成中,一個常見的問題是“跑題”,即生成的文本逐漸和主題無關。為了解決以上兩個問題,我們分別提出了語境提示(contextualized prompts)連續反向提示(continuous inverse prompting),來增強生成文本的信息量相關性

二、語境調優(Context-Tuning)

本文提出了一種創新的連續提示方法,稱語境調優,用于微調預訓練模型來進行自然語言生成,我們的核心貢獻有三點:①我們首次提出了輸入相關的提示——語境提示,抽取預訓練模型中的知識作為提示來豐富生成文本的信息量。②我們使用了連續反向提示,最大化基于輸出生成輸入的概率,來增強生成文本的相關性。③我們使用了一種輕量化的語境調優方法,在只微調0.12%參數的情況下保持98%的性能

1.語境提示(contextualized prompts)

語境提示是基于輸入文本生成的提示,我們使用BERT作為提示生成器來抽取模型中有關輸入的知識,以此達到豐富信息量的目的。 611f56ac-4ade-11ed-a3b6-dac502259ad0.jpg ? 具體的,我們在??兩端各放置??個??得到BERT的輸入: ?? 經過BERT的編碼,我們得到這些??的頂層表示,作為初始提示: ?? 然后我們使用一種“語義對齊”操作,將這些隱提示對應到真實詞表空間,得到我們的語境提示??: ?? 其中??是BERT的詞表矩陣,??是BERT預測??的映射矩陣。直覺地,我們可以將語義對齊操作看做是預測??的概率分布,然后將相應的詞向量加權平均。 ? 最后我們將語境提示加在輸入兩端,使用BART作為我們的生成模型,建模輸入??到輸出??的概率: ?? 2.連續反向提示(continuous inverse prompting) 連續反向提示通過建模從輸出到輸入的反向過程,改進自然語言生成,使生成文本與輸入的相關性更強。 615e44b6-4ade-11ed-a3b6-dac502259ad0.jpg ? 我們有這樣一個假設,如果我們可以從輸出恢復輸入,我們便認為輸出與輸入相關。但在一些生成場景下,這從輸出恢復輸入并不自然,因此我們使用連續反向提示來緩解這一現象。我們在輸出兩端添加連續反向提示??,并建模輸出到輸入的概率: ?? 我們期望反向提示可以更好地反映輸出到輸入的關系,這更多取決于任務本身,因此這里的反向提示是靜態的。 ? 最后,我們結合語境提示和連續反向提示,選擇聯合概率最大的生成文本: ?? 3.輕量化語境調優 考慮到我們的語境提示引入了兩個預訓練模型,我們使用了一種輕量化微調方法BifFit,即僅微調每個參數的bias項,最終我們僅需要微調全量模型0.12%的參數。因此,我們在實驗中考慮了全量微調和輕量化微調兩種場景。 三、實驗 為了驗證語境調優的有效性,我們在四個開放式文本數據集上進行了測試:WritingPrompts,ROCStories,ChangeMyReivew和WikiPlots。 我們考慮了六個基線方法(其中前四個用于全量微調,后兩個用于輕量化微調):

通用文本生成模型:BART,GPT-2和T5;

專為故事生成設計的方法:HINT;

輕量化方法:Prefix-tuning和Prompt tuning

同時,我們使用BLEU來衡量生成文本的質量,用Distinct來評價生成文本的多樣性。 618fbf8c-4ade-11ed-a3b6-dac502259ad0.jpg ? 實驗結果表明我們在全量微調和輕量化微調兩種場景下均優于基線模型,其中輕量化模型在僅微調0.12%參數的情況下可以達到全量微調98%的表現。 61a4bff4-4ade-11ed-a3b6-dac502259ad0.jpg ? 消融實驗中,我們嘗試替換語境提示、刪除語義對齊或反向提示,生成結果均有下降,這驗證了我們語境提示和連續反向提示的有效性。 ? 61bf75f6-4ade-11ed-a3b6-dac502259ad0.jpg ? 人工評價表明,使用語境調優生成的文本在流暢性、信息量、相關性和一致性上均優于基線模型,且有82.83%的生成文本被認為是人所寫的。 ? 61dc289a-4ade-11ed-a3b6-dac502259ad0.jpg ? 四、總結 6222a612-4ade-11ed-a3b6-dac502259ad0.jpg ? 本文提出了用于自然語言生成的“語境調優”技術: ?

我們提出“語境提示”,增強生成文本的信息量;

我們使用“連續反向提示”,增強生成文本的相關性;

我們提出輕量化微調語境調優,僅微調0.12%的參數卻能保持98%的性能。

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    7139

    瀏覽量

    89573
  • 模型
    +關注

    關注

    1

    文章

    3305

    瀏覽量

    49217
  • 深度學習
    +關注

    關注

    73

    文章

    5513

    瀏覽量

    121544
  • 自然語言
    +關注

    關注

    1

    文章

    291

    瀏覽量

    13398

原文標題:COLING'22 | 如何增強文本生成的信息量和相關性?基于語境提示的生成方法Context-Tuning

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    自然語言處理包括哪些內容 自然語言處理技術包括哪些

    Classification and Clustering):將文本按照相似性進行分類或聚類。 信息提取(Information Extraction):從文本中提取有用的信息。 自然語言生成(Natural Language Generation):
    的頭像 發表于 08-03 16:22 ?7571次閱讀

    python自然語言

    最近,python自然語言是越來越火了,那么什么是自然語言自然語言(Natural Language )廣納了眾多技術,對自然或人類
    發表于 05-02 13:50

    自然語言處理怎么最快入門?

    `本文整理自知乎上的一個問答,分享給正在學習自然語言處理的朋友們!一、自然語言處理是什么?自然語言處理說白了,就是讓機器去幫助我們完成一些語言
    發表于 11-28 10:02

    【推薦體驗】騰訊云自然語言處理

    `相信大家對NLP自然語言處理的技術都不陌生,它是計算機科學領域和AI領域中的一個分支,它與計算機和人類之間使用自然語言進行交互密切相關,而NLP的最終目標是使計算機能夠像人類一樣理解語言
    發表于 10-09 15:28

    自然語言處理的語言模型

    自然語言處理——53 語言模型(數據平滑)
    發表于 04-16 11:11

    什么是自然語言處理

    什么是自然語言處理?自然語言處理任務有哪些?自然語言處理的方法是什么?
    發表于 09-08 06:51

    自然語言處理怎么最快入門_自然語言處理知識了解

    自然語言處理就是實現人機間自然語言通信,實現自然語言理解和自然語言生成是十分困難的,造成困難的根本原因是
    發表于 12-28 17:10 ?5335次閱讀

    自然語言處理的概念和應用 自然語言處理屬于人工智能嗎

      自然語言處理(Natural Language Processing)是一種人工智能技術,它是研究自然語言與計算機之間的交互和通信的一門學科。自然語言處理旨在研究機器如何理解人類
    發表于 08-23 17:31 ?1750次閱讀

    什么是自然語言處理 (NLP)

    理解和處理自然語言文本,從而實現人機交互的流暢和自然。NLP不僅關注理論框架的建立,還側重于實際技術的開發和應用,廣泛應用于法律、醫療、教育、安全、工業、金融等多個領域。
    的頭像 發表于 07-02 18:16 ?1336次閱讀

    自然語言處理包括哪些內容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它涉及到計算機與人類語言之間的交互。NLP的目標是讓計算機能夠理解、生成和處理人類
    的頭像 發表于 07-03 14:15 ?1180次閱讀

    自然語言處理是什么技術的一種應用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它涉及到使用計算機技術來處理、分析和生成
    的頭像 發表于 07-03 14:18 ?1156次閱讀

    自然語言處理技術的核心是什么

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,其核心目標是使計算機能夠理解、生成和處理人類語言。NLP技術的發展已經取
    的頭像 發表于 07-03 14:20 ?887次閱讀

    自然語言處理技術有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言自然語言處理
    的頭像 發表于 07-03 14:30 ?1358次閱讀

    使用LLM進行自然語言處理的優缺點

    自然語言處理(NLP)是人工智能和語言學領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言。大型語言模型(LLM)是NLP領域的一
    的頭像 發表于 11-08 09:27 ?636次閱讀

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它致力于研究如何讓計算機能夠理解、解釋和生成人類語言。機器學習(Ma
    的頭像 發表于 12-05 15:21 ?719次閱讀
    百家乐官网对打反水| 金花百家乐的玩法技巧和规则| 百家乐官网路单网下载| 大世界百家乐的玩法技巧和规则| 百家乐官网破战| 网络棋牌游戏排行榜| 百家乐官网获胜秘决百家乐官网获胜秘诀| 大发888备用| 百家乐破解之法| 娱乐城百家乐官网打不开| 百家乐筹码片| 千亿娱百家乐官网的玩法技巧和规则| 工布江达县| 真人百家乐怎么玩| 百家乐官网五湖四海赌场娱乐网规则| 久盛国际娱乐城| 百家乐怎赌才赢钱| 大丰收百家乐官网的玩法技巧和规则 | 大发888线上娱乐城百家乐| 长乐坊百家乐娱乐城| 百家乐官网看盘技巧| 单机棋牌游戏| 视频百家乐是真是假| 都坊百家乐官网的玩法技巧和规则 | 百家乐必胜法hk| 百家乐官网园36bol在线| 皇冠国际现金投注网| 威尼斯人娱乐场 老品牌值得您信赖| 时时博百家乐官网的玩法技巧和规则 | 威尼斯人娱乐城官方网| 百家乐庄闲的冷热| 百家乐官网平台在线| 网上百家| 万达百家乐娱乐城| 澳门百家乐有限公司| 百家乐官网赢钱打| 聚宝盆百家乐官网游戏| 君豪棋牌信誉怎么样| 牌九百家乐的玩法技巧和规则| 做生意摆放什么会招财| 澳门百家乐官网怎么看小路|