衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)注意力文本生成變換器編碼器序列表征

FUGy_gh_b11486d ? 來(lái)源:陳年麗 ? 2019-07-19 14:40 ? 次閱讀

本筆記基于斯坦福大學(xué)2019年冬季CS224N最新課程:基于深度學(xué)習(xí)的自然語(yǔ)言處理,希望可以接觸到最前沿的進(jìn)展。

主要內(nèi)容

今天的主題是 Transformer。Transformer 不是變形金剛,但是比變形金剛更強(qiáng)大。這里暫時(shí)譯作變換器。

序列表征循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)注意力文本生成變換器編碼器自注意力解碼器自注意力殘差的重要性圖像生成概率圖像生成結(jié)合注意力和局部性音樂(lè)變換器音樂(lè)的原始表征音樂(lè)的語(yǔ)言模型音樂(lè)生成示例音樂(lè)中的自相似性平移不變性相對(duì)注意和圖消息傳遞神經(jīng)網(wǎng)絡(luò)總結(jié)和展望自注意力研究熱點(diǎn)遷移學(xué)習(xí)優(yōu)化和加大模型其他自注意力研究正在進(jìn)行未來(lái)展望下節(jié)預(yù)告閱讀更多

序列表征

機(jī)器學(xué)習(xí)之前的首要任務(wù)是了解數(shù)據(jù)集是什么結(jié)構(gòu),數(shù)據(jù)集是否對(duì)稱,模型是否具有歸納偏見(jiàn)來(lái)擬合數(shù)據(jù)集的這些屬性等等。

通過(guò)這一節(jié),我們會(huì)看到自注意力確實(shí)能夠模擬歸納偏見(jiàn),而歸納偏見(jiàn)對(duì)解決問(wèn)題是有用的。

循環(huán)神經(jīng)網(wǎng)絡(luò)

大多數(shù)據(jù)都是不等長(zhǎng)數(shù)據(jù)。處理不等長(zhǎng)數(shù)據(jù)的主力模型是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)。RNN天生適合處理句子和像素序列。LSTM、GRU等變體是主要的RNN模型。

RNN

RNN通常按照順序接收一個(gè)字符串、一個(gè)句子甚至一個(gè)圖像,然后在每一步產(chǎn)生一個(gè)連續(xù)表征,這個(gè)連續(xù)表征匯總了這一步之前處理的所有信息。但是:

RNN必須等待上一步完成,才能繼續(xù)下一步。這不利于并行計(jì)算。(當(dāng)然并行計(jì)算越強(qiáng),也會(huì)吸納更多數(shù)據(jù),最后拖慢并行計(jì)算)

RNN很難把指代信息等各種長(zhǎng)程、短程依賴信息擠壓到固定大小的向量中。

RNN無(wú)法對(duì)語(yǔ)言中的結(jié)構(gòu)層次進(jìn)行建模。

卷積神經(jīng)網(wǎng)絡(luò)

在自注意力(self-attention)之前,卷積序列模型(CNN)在某種程度上克服了以上部分困難。

CNN

CNN可以在每個(gè)位置同時(shí)運(yùn)用卷積,易于并行化。

CNN可以充分利用局部依賴關(guān)系

兩個(gè)位置之間的“交互距離”是線性或?qū)?shù)的

長(zhǎng)程依賴通過(guò)增加網(wǎng)絡(luò)深度實(shí)現(xiàn)

注意力

編碼器和解碼器之間的注意力機(jī)制是神經(jīng)機(jī)器翻譯取得突破的關(guān)鍵部件。

注意力是基于內(nèi)容的記憶提取機(jī)制。

既然如此,為什么不將注意力用于表征學(xué)習(xí)?

下圖是注意力的大體框架:

自注意力

如果想重新表征某個(gè)單詞,可先將這個(gè)單詞與周圍所有單詞作比較,然后得到周圍所有單詞的加權(quán)組合,即所有信息的匯總。這就是注意力機(jī)制的原理。當(dāng)然還可以添加前饋層,計(jì)算新的特征。

文本生成

自注意力在文本生成中起到了很大作用。

注意力允許一個(gè)單詞直接與任何位置的單詞交互,任何兩個(gè)位置之間的路徑距離是固定的。

注意力通過(guò)softmax實(shí)現(xiàn)門控/乘法交互

注意力易于并行化

我們知道卷積序列到序列的文本生成已經(jīng)非常成功,那么注意力表征學(xué)習(xí)能否成為主力呢?

注意力在大型機(jī)器翻譯系統(tǒng)或大型文本生成系統(tǒng)中管用嗎?

變換器

變換器(Transformer)是自注意力的集大成者。

變換器

假如現(xiàn)在是英德翻譯。使用的是標(biāo)準(zhǔn)的編碼器-解碼器架構(gòu)。

編碼器側(cè):

首先是自注意力層,用于同步計(jì)算每個(gè)位置的表征。然后是前饋層。中間各層有殘差連接。這些結(jié)構(gòu)會(huì)重復(fù)若干次。

注意:改變單詞順序不會(huì)影響注意力的實(shí)際輸出。為了保持順序,需要增加位置表征。

解碼器側(cè):

首先是用自注意力模仿的語(yǔ)言模型。但是要掩蓋掉之后看見(jiàn)的位置。比如,第一個(gè)位置不能看見(jiàn)后續(xù)的位置。

然后是編碼器-解碼器注意力層(實(shí)際關(guān)注的是編碼器最后的注意力層和前饋層),重復(fù)若干層。最后是標(biāo)準(zhǔn)的交叉熵?fù)p失。

編碼器自注意力

那么如何計(jì)算注意力呢?

編碼器自注意力

假設(shè)現(xiàn)在要計(jì)算位置的表征。

首先對(duì)查詢()作線性變換。

然后對(duì)輸入的所有位置(鍵)作線性變換。

做點(diǎn)乘和softmax,最后計(jì)算所有這些位置的向量的凸組合。在凸組合之前,要對(duì)值作線性變換。

接著再作一次線性變換,整合這些信息,送入前饋層。

所有這些運(yùn)算可用兩個(gè)矩陣相乘表示,平方根系數(shù)是縮放因子,防止點(diǎn)乘爆炸。

解碼器自注意力

解碼器側(cè)大致相同。

解碼器自注意力

不同點(diǎn)是將掩蓋位置的logit設(shè)為非常大的負(fù)數(shù),讓這些位置的概率變成0。

注意力成本低廉!尤其當(dāng)維度遠(yuǎn)遠(yuǎn)大于長(zhǎng)度時(shí)。

length=1000 dim=1000 kernel_width=3

注意力雖好,但仍有一個(gè)問(wèn)題。在語(yǔ)言中,我們通常想知道主語(yǔ)、謂語(yǔ)和賓語(yǔ)。

假設(shè)現(xiàn)在運(yùn)用了一個(gè)卷積濾波器。實(shí)際上,根據(jù)相對(duì)位置,會(huì)有不同的線性變換。

比如綠色線性變換能從I的詞嵌入拾取主語(yǔ)信息;紅色線性變換能從kicked拾取謂語(yǔ)信息;藍(lán)色線性變換能從ball拾取賓語(yǔ)信息。如下圖所示:

卷積

但是單個(gè)注意力層不一樣,無(wú)法做到這一點(diǎn)。

自注意力:平均

注意力是凸組合,線性變換處處相同。注意力提供的是混合比例,無(wú)法從不同位置拾取不同信息。

假如現(xiàn)在有一個(gè)主語(yǔ)注意力層:

注意力頭:關(guān)注主語(yǔ)信息

注意力層相當(dāng)于特征檢測(cè)器。注意力承載著一個(gè)線性變換,會(huì)投射到關(guān)注句法的空間,比如關(guān)注主語(yǔ)或賓語(yǔ)的空間。

我們可以增加其他注意力層,也叫注意力頭,用于關(guān)注謂語(yǔ)信息:

注意力頭:關(guān)注謂語(yǔ)信息

還可以再增加注意力頭,用于關(guān)注賓語(yǔ)信息:

注意力頭:關(guān)注賓語(yǔ)信息

所有這些都可以并行完成。

平行注意力頭

為了提高效率,我們會(huì)降低注意力頭的維度。

如果注意力頭是位置的函數(shù),注意力幾乎可以模擬卷積。雖然增加了softmax,但計(jì)算量并未增加。因?yàn)橹虚g有降維處理。

在機(jī)器翻譯中,變換器效果遠(yuǎn)超之前的方法。

變換器效果

但是這里的意思并不是說(shuō)注意力架構(gòu)比LSTM具有更好的表現(xiàn)力。

理論證明,LSTM可以模擬任何函數(shù)。也許注意力架構(gòu)只是便于隨機(jī)梯度下降(SGD)。

有一點(diǎn)需要指出:注意力確實(shí)可以直接對(duì)任何兩個(gè)詞語(yǔ)之間的關(guān)系進(jìn)行建模。

殘差的重要性

在 變換器 架構(gòu)中,層與層之間都有殘差連接,并且只在模型輸入中加入位置信息,不會(huì)在每一層都注入位置信息。

如左圖所示,殘差可以帶來(lái)非常強(qiáng)的對(duì)角聚焦。

殘差的重要性

當(dāng)把殘差連接切斷時(shí),得到的注意力分布如中間圖所示。顯然,沒(méi)有殘差就無(wú)法拾取到對(duì)角線。

殘差可以將位置信息攜帶至更高層,使后續(xù)層也有位置概念。

但如果切斷殘差,在每一層都添加位置信息,雖然不能準(zhǔn)確恢復(fù),但至少能在一定程度找回對(duì)角聚焦。如右圖所示。

所以殘差效果更好,殘差能更好地傳遞位置信息。

綜上,注意力可以模擬長(zhǎng)短程關(guān)系,有利于文本生成。

圖像生成

在圖像和音樂(lè)中,我們經(jīng)常看到某些相似結(jié)構(gòu)或歸納偏見(jiàn)會(huì)不斷重復(fù)。

圖像中的自相似

這些主題會(huì)在不同尺度上重度。

在下面梵高的油畫中,這些球狀結(jié)構(gòu)就是自相似性。

梵高:繁星之夜

它們會(huì)不斷重復(fù),但又具有不同尺度。

音樂(lè)也是一樣,主題有時(shí)會(huì)立即重復(fù),有時(shí)會(huì)在后面重復(fù)。

音樂(lè)中的自相似

概率圖像生成

那么,注意力機(jī)制能否有助于生成圖像和音樂(lè)?

方法是沿用標(biāo)準(zhǔn)的圖像模型或概率圖像模型,并轉(zhuǎn)換成序列模型,相當(dāng)于圖像中的語(yǔ)言模型。

RNN(PixelCNN)和CNN(PixelRNN)都達(dá)到一流水平。融合門控機(jī)制的CNN與RNN不相上下。CNN由于并行化速度要快得多。

但是,對(duì)于圖像而言,長(zhǎng)程依賴(如對(duì)稱性)也很重要,尤其隨著圖像尺寸不斷變大,其重要性也與日俱增。

用CNN模擬長(zhǎng)程依賴需要:

增加層數(shù),這會(huì)增加訓(xùn)練難度

增大內(nèi)核,這會(huì)增加參數(shù)和計(jì)算代價(jià)

但是注意力能減少層數(shù),降低計(jì)算代價(jià),同時(shí)獲得遙遠(yuǎn)像素之間的依賴關(guān)系。

1999 年 Efros 和 Leung 在訓(xùn)練集中找到自相似的像斑,然后用于補(bǔ)充信息。

紋理合成

這相當(dāng)于在做圖像生成。

實(shí)際上,歷史上真有一種圖像降噪的方法,叫非局部均值。如果要給下圖像斑p降噪,那么需要計(jì)算該像斑與圖像中其他像斑的相似度,然后據(jù)此拉取信息。如下圖所示:

非局部均值法

這里的底層邏輯是:圖像具有非常高的自相似性。

現(xiàn)在,我們可以直接套用編碼器自注意力機(jī)制,只需將詞向量換成像斑。如下圖所示:

圖像自注意力

這是一種可微的非局部均值法。

圖像變換器(Image Transformer)與之前的變換器結(jié)構(gòu)如出一轍。

圖像變換器

這里使用二維位置表征。

結(jié)合注意力和局部性

圖像拉平后,長(zhǎng)度一般很長(zhǎng)。即使32x32的圖像,拉平后也有1024像素,這限制了注意力機(jī)制。

簡(jiǎn)單的辦法是像卷積一樣,使用局部窗口。由于圖像具有空間局部性,將注意力窗口限制在局部鄰域,仍然可以獲得較好的效果。

第二種方法是光柵化。

光柵化分成一維和二維。

在一維光柵化中,單個(gè)查詢塊沿著橫向?qū)τ洃泬K做注意力。

局部一維注意力

在二維光柵化中,仍然沿用標(biāo)準(zhǔn)的二維局部性,這實(shí)際上是在按塊生成圖像。

局部二維注意力

這些圖像變換器都非常類似:

圖像變形器層

下圖是非條件圖像生成模型效果對(duì)比:

非條件圖像生成

圖像變換器可以獲得更低的困惑度。但PixelSNAIL融合了卷積和注意力,所以效果超過(guò)了圖像變換器。之所以使用困惑度度量,是因?yàn)檫@些是概率模型,相當(dāng)于圖像中的語(yǔ)言模型。語(yǔ)言模型如何分解僅僅取決于如何光柵化。在一維光柵化中,先行后列。在二維光柵化中,先塊,然后在每塊內(nèi)光柵化。

如下圖所示,注意力可以很好地捕獲結(jié)構(gòu)化對(duì)象。雖然還沒(méi)有達(dá)到GAN的水平。

Cifar10樣本

在超清圖像生成中,需要大量條件信息,這時(shí)會(huì)鎖定不少模式,所以輸出端的選項(xiàng)會(huì)非常有限。

如下圖所示,變換器的圖像生成效果也好得多。可以得到更好的面部定位和結(jié)構(gòu)。下圖是不同溫度下的樣本。

CelebA超清圖像

圖像生成使用人工評(píng)測(cè)。變換器生成的假照片欺騙率差不多是之前成果的4倍。如下表所示:

CelebA超清圖像

當(dāng)然,這些成果與英偉達(dá)最新的GAN成果相比,簡(jiǎn)直是小巫見(jiàn)大巫。沒(méi)辦法,起步晚,希望能趕上來(lái)。

這里的重點(diǎn)是兩個(gè)問(wèn)題:

模型能否捕獲某些結(jié)構(gòu)?

模型能否提供多樣性?極大似然本質(zhì)上能提供多樣性。

于是設(shè)計(jì)了填圖任務(wù)。為什么是填圖任務(wù)?因?yàn)橐坏┐_定一半圖像,實(shí)際上去掉了很多可能的模式。這樣更容易采樣。

在下圖中,第一列是模型輸入,最右側(cè)是真實(shí)圖片。

條件圖像生成

看第三行最左側(cè)這匹馬,乍一看,像是有人在拉。而模型輸出的某些圖像也確實(shí)有人影。模型,或者數(shù)據(jù)告訴模型要捕捉世界的某種結(jié)構(gòu)。

再看第四行的小狗。模型拒絕想像整個(gè)椅子。

可見(jiàn),圖像生成仍然充滿困難。

音樂(lè)變換器(Music Transformer)

圖像有很多自相似,音樂(lè)也有很多自相似。

可以想見(jiàn),變換器應(yīng)該也適用于音樂(lè)生成。接下來(lái)會(huì)對(duì)自注意力做個(gè)擴(kuò)展,即增加相對(duì)信息,以便用于音樂(lè)生成。

音樂(lè)的原始表征

先來(lái)看一看音樂(lè)的原始表征。

我們用語(yǔ)言作類比。

一段文本,經(jīng)朗讀后,會(huì)形成聲音。

音樂(lè)也是類似。

作曲家產(chǎn)生創(chuàng)意,寫下樂(lè)譜,演奏者演奏(顯示為MIDI鋼琴卷簾),再經(jīng)過(guò)合成器后,形成音樂(lè)。如下圖所示:

音樂(lè)生成分解

本節(jié)的主要關(guān)注點(diǎn)是樂(lè)譜,但其實(shí)是演奏。演奏是數(shù)字鋼琴的符號(hào)化表征。所以演奏的相關(guān)信息可以記錄下來(lái)。

音樂(lè)的語(yǔ)言模型

演奏RNN

具體而言,音樂(lè)序列模型的每一步輸出是打開(kāi)音符、推進(jìn)時(shí)鐘、關(guān)閉音符諸如此類的動(dòng)態(tài)信息。

傳統(tǒng)上都把音樂(lè)當(dāng)作語(yǔ)言進(jìn)行建模,因此大都使用循環(huán)神經(jīng)網(wǎng)絡(luò)。

但這涉及到大量的壓縮,需要將較長(zhǎng)序列擠壓成固定長(zhǎng)度的向量。如果音樂(lè)重復(fù)距離很長(zhǎng),這種擠壓就變得非常困難。

音樂(lè)生成示例

接下來(lái)分別給出RNN、變換器、音樂(lè)變換器生成的示例。先聽(tīng)一聽(tīng)有什么區(qū)別,然后介紹對(duì)變換器做的改進(jìn)。

給定的主題是肖邦練習(xí)曲片段:

起始主題

使用RNN做的生成:

RNN音樂(lè)生成

可以看到,在剛剛開(kāi)始的時(shí)候,模型能夠能夠很好得重復(fù)主題,但很快就跑偏了。所以在經(jīng)過(guò)較長(zhǎng)距離后,RNN對(duì)于過(guò)去的記憶越來(lái)越模糊。

接下來(lái)是變換器做的生成:

注意模型訓(xùn)練時(shí)的長(zhǎng)度是所聽(tīng)長(zhǎng)度的一半,希望模型能對(duì)更長(zhǎng)長(zhǎng)度進(jìn)行泛化。

普通變換器音樂(lè)生成

可以看到,在開(kāi)始的時(shí)候,模型能夠能夠很好得重復(fù)主題,但當(dāng)超出訓(xùn)練長(zhǎng)度后,模型效果開(kāi)始變差,不知道如何應(yīng)對(duì)更長(zhǎng)的音樂(lè)背景。

最后是音樂(lè)變換器做的生成:

音樂(lè)變換器音樂(lè)生成

可以直觀地看到,模型能夠非常好得保持主題一致。

音樂(lè)中的自相似性

我們之前談到音樂(lè)的自相似性。從下面這張圖可以看到很多重復(fù)。

音樂(lè)中的自相似性

再看看自注意力結(jié)構(gòu),模型的確注意到了相關(guān)部分。

音樂(lè)變換器的片斷

灰色部分是主題出現(xiàn)的地方。不同顏色代表不同的注意力頭,這些注意力頭注意到了灰色部分。

下面是示例動(dòng)畫,邊播放邊顯示預(yù)測(cè)時(shí)正在關(guān)注的音符。這種自注意力是音符級(jí)或事件級(jí)的。所以觀察時(shí),會(huì)看到多個(gè)注意力頭在移動(dòng)。

那么音樂(lè)變換器是怎么做到的?

普通的注意力機(jī)制相當(dāng)于過(guò)去歷史的加權(quán)平均。如下圖所示:

注意力:加權(quán)平均

注意力的優(yōu)點(diǎn)是,無(wú)論距離多遠(yuǎn),都能直接訪問(wèn)。如果前面出現(xiàn)某個(gè)主題,那么后面可以根據(jù)相似度檢索到這些主題。但是這就像詞袋模型一樣,無(wú)法捕捉前后結(jié)構(gòu)。

因此人們提出位置正弦曲線,如下圖所示:

注意力:加權(quán)平均

這基本上是把索引放入不同移動(dòng)速度的正弦曲線。距離近的位置具有相似的橫截面積。

相比之下,卷積則通過(guò)固定濾波器的滑動(dòng)來(lái)捕捉相對(duì)距離。如下圖所示:

卷積:相對(duì)位置的不同線性變換

從某種程度而言,卷積就像一種剛性結(jié)構(gòu),可以明確地引入距離信息。

下面的多頭相對(duì)注意力則是以上的融合:

相對(duì)注意力:多頭注意力+卷積

一方面,可以直接訪問(wèn)歷史。另一方面,又能把握這個(gè)歷史的相對(duì)關(guān)系,抓住平移不變性。音樂(lè)變換器之所以能根據(jù)起始樣本,生成連貫的音樂(lè),是因?yàn)樵谀撤N程度上依賴了這種平移不變性,將相對(duì)信息向前傳遞。

通常,變換器對(duì)比的是查詢和鍵,得到的是自相似方陣。如下圖所示:

注意力

相對(duì)注意力則增加了一項(xiàng),便于每次做對(duì)比時(shí),考慮相距多遠(yuǎn)。

相對(duì)注意力

從英德翻譯來(lái)看,變換器有相對(duì)位置表征比無(wú)相對(duì)位置表征效果要好。

但在翻譯中,序列通常較短,可能只有50到100個(gè)單詞。但在剛才的音樂(lè)中,時(shí)間步達(dá)到了2000。由于要構(gòu)建下圖所示的三維張量,這非常耗內(nèi)存。

首先要計(jì)算相對(duì)距離,然后查找與之對(duì)應(yīng)的嵌入。這就有LxL的矩陣。另外還要在每個(gè)位置收集嵌入,即深度。這就是三維張量。

實(shí)際上,查詢和嵌入距離可以直接相乘,這時(shí)得到按相對(duì)距離排序的查詢,但是需要按鍵排序的查詢。我們只需做一系列的歪斜,使之變成右邊的配置。如下圖所示:

下圖是兩者內(nèi)存需求的差異:

其實(shí)很多情況下,真正的挑戰(zhàn)是提高內(nèi)存效率,以便建模更長(zhǎng)的序列。

下面欣賞一段音樂(lè)變換器生成爵士樂(lè):

總而言之,相對(duì)注意力是做音樂(lè)生成的強(qiáng)大機(jī)制,當(dāng)然它也有助于機(jī)器翻譯。

平移不變性

相對(duì)注意力在圖像中的作用類似于卷積,那就是實(shí)現(xiàn)了平移不變性。

例如,計(jì)算紅點(diǎn)的特征不依賴于狗在圖像中的位置,也就是不依賴于絕對(duì)位置。

卷積在平移不變性這方面做得非常好。

現(xiàn)在,相對(duì)注意力達(dá)到了完全相同、甚至更好的效果。

實(shí)現(xiàn)平移不變性對(duì)于圖像處理而言是非常重要的。

所以在圖像半監(jiān)督學(xué)習(xí)中運(yùn)用自注意力會(huì)是一個(gè)很好的方向。

相對(duì)注意和圖

相對(duì)注意力的另外一個(gè)用武之地是圖結(jié)構(gòu)。

設(shè)想下面的相似圖。紅邊代表公司的概念;藍(lán)邊代表水果的概念。

關(guān)系歸納偏見(jiàn)

蘋果占了兩種形式。

相對(duì)注意力

可以想象,相對(duì)注意力可以用來(lái)建模不同元素概念的相似度。

所以圖問(wèn)題可以使用相對(duì)注意力。

消息傳遞神經(jīng)網(wǎng)絡(luò)

在圖方面,之前也有相關(guān)工作,被稱為消息傳遞神經(jīng)網(wǎng)絡(luò)。

量子化學(xué)中的神經(jīng)消息傳遞

如果看一看消息傳遞函數(shù),其實(shí)只是在兩個(gè)節(jié)點(diǎn)之間傳遞消息。

實(shí)際上,可以把自注意力看成全連接雙偶圖,并在節(jié)點(diǎn)之間傳遞消息。

自注意力和消息傳遞網(wǎng)絡(luò)的唯一不同之處在于:

消息傳遞網(wǎng)絡(luò)是在兩個(gè)節(jié)點(diǎn)之間傳遞消息,自注意力是在所有節(jié)點(diǎn)之間都有互動(dòng)。

另外,消息傳遞論文還提出了多塔的概率,這和多頭注意力如出一轍。

多塔結(jié)構(gòu)

總結(jié)和展望

自注意力

總結(jié)一下,自注意力機(jī)制具有以下優(yōu)點(diǎn):

任何兩個(gè)位置之間的路徑長(zhǎng)度是固定的

具有無(wú)限記憶,無(wú)需將信息壓縮到有限固定空間

易于并行化

可以模擬自相似性

相對(duì)注意力有平移不變性,能夠建模時(shí)間、音樂(lè)和圖

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4779

    瀏覽量

    101169
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    353

    瀏覽量

    22334

原文標(biāo)題:變換器(Transformer)和自注意力(CS224N-2019-14)

文章出處:【微信號(hào):gh_b11486d178ef,微信公眾號(hào):語(yǔ)言和智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    全連接神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    什么是圖卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 08-20 12:05

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)是什么

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)
    發(fā)表于 05-05 18:12

    卷積神經(jīng)網(wǎng)絡(luò)一維卷積的處理過(guò)程

    以前的神經(jīng)網(wǎng)絡(luò)幾乎都是部署在云端(服務(wù)上),設(shè)備端采集到數(shù)據(jù)通過(guò)網(wǎng)絡(luò)發(fā)送給服務(wù)做inference(推理),結(jié)果再通過(guò)網(wǎng)絡(luò)返回給設(shè)備端。
    發(fā)表于 12-23 06:16

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    神經(jīng)網(wǎng)絡(luò)已經(jīng)廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語(yǔ)義分割以及自然語(yǔ)言處理等領(lǐng)域。首先分析了典型卷積神經(jīng)網(wǎng)絡(luò)模型為提高其性能增加網(wǎng)絡(luò)深度以及寬度的模型結(jié)構(gòu),分析了采用
    發(fā)表于 08-02 10:39

    循環(huán)神經(jīng)網(wǎng)絡(luò)注意力的模擬實(shí)現(xiàn)

    深度學(xué)習(xí)領(lǐng)域中,處理一張大圖的時(shí)候,使用卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算量隨著圖片像素的增加而線性增加。如果參考人的視覺(jué),有選擇地分配注意力,就能選擇性地從圖片或視頻中提取一系列的區(qū)域,每次只對(duì)提取的區(qū)域進(jìn)行處理
    的頭像 發(fā)表于 10-22 08:58 ?1704次閱讀

    基于深度神經(jīng)網(wǎng)絡(luò)文本分類分析

    卷積神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)注意力機(jī)制等方法在文本分類中的應(yīng)用和發(fā)展,分析多種典型分類方法的特點(diǎn)
    發(fā)表于 03-10 16:56 ?37次下載
    基于深度<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>文本</b>分類分析

    基于異質(zhì)注意力循環(huán)神經(jīng)網(wǎng)絡(luò)模型

    針對(duì)當(dāng)前大數(shù)據(jù)環(huán)境下文本推薦不精確的問(wèn)題,對(duì)文本數(shù)據(jù)和關(guān)系網(wǎng)絡(luò)2種異質(zhì)數(shù)據(jù)進(jìn)行融合,并引入編碼器-解碼框架,提岀基于異質(zhì)
    發(fā)表于 03-19 14:50 ?9次下載
    基于異質(zhì)<b class='flag-5'>注意力</b>的<b class='flag-5'>循環(huán)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型

    神經(jīng)網(wǎng)絡(luò)算法是用來(lái)干什么的 神經(jīng)網(wǎng)絡(luò)的基本原理

    神經(jīng)網(wǎng)絡(luò)一般可以分為以下常用的三大類:CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))、Transformer(
    的頭像 發(fā)表于 12-12 14:48 ?5862次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型 生成卷積神經(jīng)網(wǎng)絡(luò)模型

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型 生成卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 08-21 17:11 ?1306次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)是兩種
    的頭像 發(fā)表于 07-03 16:12 ?3698次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    結(jié)構(gòu)。它們?cè)谔幚聿煌愋偷臄?shù)據(jù)和解決不同問(wèn)題時(shí)具有各自的優(yōu)勢(shì)和特點(diǎn)。本文將從多個(gè)方面比較循環(huán)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別。 基本概念 循環(huán)
    的頭像 發(fā)表于 07-04 14:24 ?1502次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)

    。 遞歸神經(jīng)網(wǎng)絡(luò)的概念 遞歸神經(jīng)網(wǎng)絡(luò)是一種具有短期記憶功能的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),如時(shí)間序列
    的頭像 發(fā)表于 07-04 14:54 ?873次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間
    的頭像 發(fā)表于 07-05 09:52 ?654次閱讀
    百家乐官网赢的方法| 888真人| 浩博百家乐娱乐城| 谈谈百家乐官网赢钱技巧| 大发888官方6222.| 鑫鼎百家乐娱乐城| 真人百家乐官网娱乐场开户注册| 网上真钱娱乐平台| 中骏百家乐的玩法技巧和规则| 免费百家乐官网计划工具| 游戏百家乐官网押发| 大发888登录| 百家乐赌场大全| 任你博百家乐官网的玩法技巧和规则| 百家乐官网投注组合| 大发888赌场是干什么的| 百家乐网盛世三国| 百家乐官网开户过的路纸 | 大发888玩家论坛| 至尊百家乐qvod| 郑州百家乐官网的玩法技巧和规则| 百家乐官网太阳城开户| 大发娱乐城888| 大西洋百家乐的玩法技巧和规则| 澳门百家乐皇冠网| 百家乐官网赌场导航| 西城区| 大发游戏| 大发888出纳柜| 百家乐网上真钱娱乐场开户注册 | 斗地主百家乐官网的玩法技巧和规则 | 百家乐官网太阳城菲律宾| 鸿利国际娱乐城| 大发888组件下载| 百家乐游戏唯一官网网站| 百家乐庄闲必胜手段| 法拉利百家乐官网的玩法技巧和规则| 百家乐官网是如何出千的| 大玩家娱乐城开户| 棋牌网| 大发888软件下载|