衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌Transformer大進化 機翻最強王者上線

DR2b_Aiobservat ? 來源:yxw ? 2019-06-18 10:26 ? 次閱讀

谷歌Evolved Transformer通過AutoML技術進行特定任務定制,在編碼器和解碼器模塊底部的卷積層以分支模式運行,提高了語言建模的性能,目前在機器翻譯領域可以達到最先進的結果。

Transformer是一種AI架構,最早是在2017年Google的科學家合著的論文《Attention Is All You Need》中介紹的,它比較擅長撰寫散文和產品評論、合成聲音、以古典作曲家的風格制作和聲。

但是,谷歌的一個研究小組認為它可以更進一步使用AutoML技術,根據特定任務進行定制翻譯。在一篇新發表的論文和博客中,研究人員描述了工作成果:與原始的Transformer相比,現在的Transformer既達到了最先進的翻譯結果,也提高了語言建模的性能。

目前,他們已經發布了新的模型Evolved Transformer——開放源代碼的AI模型和數據集庫,來作為Tensor2Tensor(谷歌基于tensorflow新開源的深度學習庫,該庫將深度學習所需要的元素封裝成標準化的統一接口,在使用其做模型訓練時可以更加的靈活)的一部分。

一般意義上,AutoML方法是從控制器訓練和評估質量的隨機模型庫開始,該過程重復數千次,每次都會產生新的經過審查的機器學習架構,控制器可以從中學習。最終,控制器開始為模型組件分配高概率,以便這些組件在驗證數據集上更加準確,而評分差的區域則獲得較低的概率。

研究人員稱,使用AutoML發現Evolved Transformer需要開發兩種新技術,因為用于評估每種架構性能的任務WMT'14英德語翻譯的計算成本很高。

第一種是通過暖啟動(warm starting)的方式,將初始模型填充為Transformer架構進行播種,而不采用隨機模型,有助于實現搜索。第二種漸進式動態障礙(PDH)則增強了搜索功能,以便將更多的資源分配給能力最強的候選對象,若模型“明顯不良”,PDH就會終止評估,重新分配資源。

通過這兩種技術,研究人員在機器翻譯上進行大規模NAS,最終找到了Evolved Transformer。

(Evolved Transformer架構)

那么Evolved Transformer有什么特別之處呢?

與所有深度神經網絡一樣,Evolved Transformer包含神經元(函數),這些神經元從輸入數據中傳輸“信號,并緩慢調整每個連接的突觸強度(權重),這是模型提取特征和學習進行預測的方式。此外,Evolved Transformer還能使每個輸出元件連接到每個輸入元件,并且動態地計算它們之間的權重。

與大多數序列到序列模型一樣,Evolved Transformer包含一個編碼器,它將輸入數據(翻譯任務中的句子)編碼為嵌入(數學表示)和一個解碼器,同時使用這些嵌入來構造輸出(翻譯)。

但研究人員也指出,Evolved Transformer也有一些部分與傳統模型不同:在編碼器和解碼器模塊底部的卷積層以分支模式運行,即在合并到一起時,輸入需要通過兩個單獨的的卷積層。

雖然最初的Transformer僅僅依賴于注意力,但Evolved Transformer是一種利用自我關注和廣泛卷積的優勢的混合體。

(原始Transforme與Evolved Transformer的性能對比)

在測試中,研究人員將Evolved Transformer與原始Transformer在模型搜索期間使用的英德翻譯任務進行了比較,發現前者在BLEU(評估機器翻譯文本質量的算法)和Perplexity(衡量概率分布預測樣本的程度)上性能更好。

在較大的數據中,Evolved Transformer達到了最先進的性能,BLEU得分為29.8分。在涉及不同語言對和語言建模的翻譯實驗中,Evolved Transformer相比于原始Transformer的性能提升了兩個Perplexity。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6196

    瀏覽量

    106017
  • AI
    AI
    +關注

    關注

    87

    文章

    31536

    瀏覽量

    270346
  • 機器翻譯
    +關注

    關注

    0

    文章

    139

    瀏覽量

    14947
  • Transformer
    +關注

    關注

    0

    文章

    146

    瀏覽量

    6047

原文標題:谷歌Transformer大進化,機翻最強王者上線

文章出處:【微信號:Aiobservation,微信公眾號:人工智能觀察】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    如何使用MATLAB構建Transformer模型

    Transformer 模型在 2017 年由 Vaswani 等人在論文《Attentionis All You Need》中首次提出。其設計初衷是為了解決自然語言處理(Nature
    的頭像 發表于 02-06 10:21 ?242次閱讀
    如何使用MATLAB構建<b class='flag-5'>Transformer</b>模型

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會統治世界。 我們花了兩年時間打造Sohu,這是世界上第一個用于transformer(ChatGPT中的“T”)的專用芯片。 將transformer
    的頭像 發表于 01-06 09:13 ?309次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    AI眼鏡形態席卷可穿戴市場!谷歌眼鏡幾次“流產”,將靠AI

    ? 電子發燒友網報道(文/莫婷婷)在ChatGPT進化史上,繞不開的一家廠商是谷歌。2024年12月,谷歌發布 Gemini 2.0,該產品被稱為登頂AI巔峰、秒殺ChatGPT O1。始終走在AI
    的頭像 發表于 12-26 00:12 ?2651次閱讀

    Transformer模型的具體應用

    如果想在 AI 領域引領一輪新浪潮,就需要使用到 Transformer
    的頭像 發表于 11-20 09:28 ?654次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發表于 11-20 09:27 ?455次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    板液位計怎么用磁鐵校正

    板液位計是一種常用的液位測量裝置,它利用磁鐵和磁板的相互作用來實現液位的測量。在使用過程中,有時需要對磁板液位計進行磁鐵校正,以確保測量的準確性。以下是關于磁板液位計磁鐵校正
    的頭像 發表于 07-31 09:40 ?1100次閱讀

    Transformer能代替圖神經網絡嗎

    Transformer作為一種在處理序列數據方面表現出色的深度學習模型,自其提出以來,已經在自然語言處理(NLP)、時間序列分析等領域取得了顯著的成果。然而,關于Transformer是否能完全代替圖神經網絡(GNN)的問題,需要從多個維度進行深入探討。
    的頭像 發表于 07-12 14:07 ?536次閱讀

    Transformer語言模型簡介與實現過程

    在自然語言處理(NLP)領域,Transformer模型以其卓越的性能和廣泛的應用前景,成為了近年來最引人注目的技術之一。Transformer模型由谷歌在2017年提出,并首次應用于神經機器翻譯
    的頭像 發表于 07-10 11:48 ?2079次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎。本文將深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結構、訓練過程、關鍵組件以及實現細節。
    的頭像 發表于 07-02 11:41 ?1849次閱讀

    谷歌SGE生成搜索引擎存在惡意網站推薦問題

    BleepingComputer研究發現,谷歌SGE所推薦的上線網站大多選用.online頂級域名,經過層層重定向后,用戶最終可能遭遇詐騙或惡意網頁。
    的頭像 發表于 03-26 13:59 ?407次閱讀

    新火種AI|谷歌深夜炸彈!史上最強開源模型Gemma,打響新一輪AI之戰

    作者:文子 編輯:小迪 谷歌,2024年卷出新高度。 全球最強開源模型,Gemma重燃戰局 短短12天連放三次大招,谷歌AI更新迭代之快,讓人始料未及。 當地時間2月21日,谷歌毫無預
    的頭像 發表于 02-23 10:21 ?407次閱讀
    新火種AI|<b class='flag-5'>谷歌</b>深夜炸彈!史上<b class='flag-5'>最強</b>開源模型Gemma,打響新一輪AI之戰

    谷歌大型模型終于開放源代碼,遲到但重要的開源戰略

    在人工智能領域,谷歌可以算是開源的鼻祖。今天幾乎所有的大語言模型,都基于谷歌在 2017 年發布的 Transformer 論文;谷歌的發布的 BERT、T5,都是最早的一批開源 AI
    發表于 02-22 18:14 ?515次閱讀
    <b class='flag-5'>谷歌</b>大型模型終于開放源代碼,遲到但重要的開源戰略

    基于Transformer模型的壓縮方法

    基于Transformer架構的大型模型在人工智能領域中發揮著日益重要的作用,特別是在自然語言處理(NLP)和計算機視覺(CV)領域。
    的頭像 發表于 02-22 16:27 ?715次閱讀
    基于<b class='flag-5'>Transformer</b>模型的壓縮方法

    谷歌發布全球最強開源大模型Gemma

    谷歌近日宣布,其全新開源大模型Gemma正式亮相。Gemma被譽為全球性能最強大、同時也是最輕量級的模型系列,分為2B(20億參數)和7B(70億)兩種尺寸版本。令人矚目的是,即便是2B版本,也能夠在筆記本電腦上流暢運行。
    的頭像 發表于 02-22 14:51 ?874次閱讀

    谷歌Gemini 1.5深夜爆炸上線,史詩級多模態硬剛GPT-5!最強MoE首破100萬極限上下文紀錄

    我們經歷了LLM劃時代的一夜。GeminiUltra發布還沒幾天,Gemini1.5就來了。卯足勁和OpenAI微軟一較高下的谷歌,開始進入了高產模式。自家最強的Gemini1.0Ultra才發布
    的頭像 發表于 02-19 12:28 ?769次閱讀
    <b class='flag-5'>谷歌</b>Gemini 1.5深夜爆炸<b class='flag-5'>上線</b>,史詩級多模態硬剛GPT-5!<b class='flag-5'>最強</b>MoE首破100萬極限上下文紀錄
    册亨县| 太康县| 百家乐赢足球博彩皇冠| 百家乐官网的必胜方法| 威尼斯人娱乐场棋牌| 甘南县| 王子百家乐官网的玩法技巧和规则 | 百家乐官网庄闲必赢| 大发888为什么卡| 百家乐投注方法多不多| 百家乐官网出千工具价格| 青浦区| 爱赢娱乐城资讯网| 百家乐赌场规则| 唐朝百家乐官网的玩法技巧和规则| 满城县| 必博备用网址| 大发888游戏平台 df888ylcxz46| 新锦江百家乐娱乐网| 做生意的风水| 百家乐官网庄闲统计数| 足球百家乐官网投注| 易胜娱乐| 德州扑克大赛视频| 百家乐顺序| 百家乐机器昀程序| 7月24日风水| 澳门百家乐官网单注下注| 百家乐官网棋牌游戏皇冠网 | 百家乐必胜| 圣淘沙百家乐官网的玩法技巧和规则 | 查看百家乐赌博| 马牌百家乐娱乐城| 百家乐靠什么赢| 百家乐官网缩水| 涂山百家乐官网的玩法技巧和规则 | 蓝盾百家乐代理| 百家乐必赢法冯耘| 娱乐百家乐的玩法技巧和规则 | 百家乐官网网络赌博真假| 百家乐官网注册送免费金|