衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

當(dāng)前生成圖像最逼真的BigGAN被谷歌超越!造假效果更為逼真

傳感器技術(shù) ? 來源:楊湘祁 ? 作者:電子發(fā)燒友 ? 2019-03-11 15:28 ? 次閱讀

當(dāng)前生成圖像最逼真的BigGAN被超越了!

出手的,是谷歌大腦和蘇黎世聯(lián)邦理工學(xué)院。他們提出了新一代GAN:S3GAN。

它們生成的照片,都是真假難辨。

下面這兩只蝴蝶,哪只更生動?

兩張風(fēng)景照片,哪張更真實(shí)?

難以抉擇也正常,反正都是假的。上面的照騙,都是左邊出自S3GAN,右邊的出自BigGAN之手。

它們還有更多作品:

至于哪些是S3GAN,答案文末揭曉。

肉眼難分高下,就用數(shù)據(jù)說話。跑個FID(Frechet Inception Distance)得分,分值越低,就表示這些照騙,越接近人類認(rèn)識里的真實(shí)照片——

S3GAN是8.0分,而BigGAN是8.4分。新選手略微勝出。

你可還記得BigGAN問世之初,直接將圖像生成的逼真度提高了一個Level,引來Twitter上花樣贊賞?

如今它不止被超越,而且是被輕松超越。

“輕松”在哪呢?

S3GAN達(dá)到這么好的效果,只用了10%的人工標(biāo)注數(shù)據(jù)。而老前輩BigGAN,訓(xùn)練所用的數(shù)據(jù)100%是人工標(biāo)注過的。

如果用上20%的標(biāo)注數(shù)據(jù),S3GAN的效果又會更上一層樓。

標(biāo)注數(shù)據(jù)的缺乏,已經(jīng)是幫GAN提高生成能力,拓展使用場景的一大瓶頸。如今,這個瓶頸已經(jīng)幾乎被打破。

現(xiàn)在的S3GAN,只經(jīng)過了ImageNet的實(shí)驗(yàn),是實(shí)現(xiàn)用更少標(biāo)注數(shù)據(jù)訓(xùn)練生成高保真圖像的第一步。

接下來,作者們想要把這種技術(shù)應(yīng)用到“更大”和“更多樣化”的數(shù)據(jù)集中。

不用標(biāo)注那么多

為什么訓(xùn)練GAN生成圖像,需要大量數(shù)據(jù)標(biāo)注呢?

GAN有生成器、判別器兩大組件。

其中判別器要不停地識破假圖像,激勵生成器拿出更逼真的圖像。

而圖像的標(biāo)注,就是給判別器做判斷依據(jù)的。比如,這是真的貓,這是真的狗,這是真的漢堡……這是假圖。

可是,沒有那么多標(biāo)注數(shù)據(jù)怎么辦?

谷歌和ETH蘇黎世的研究人員,決定訓(xùn)練AI自己標(biāo)注圖像,給判別器食用。

自監(jiān)督 vs 半監(jiān)督

要讓判別器自己標(biāo)注圖像,有兩種方法。

一是自監(jiān)督方法,就是給判別器加一個特征提取器 (Feature Extractor) ,從沒有標(biāo)注的真實(shí)訓(xùn)練數(shù)據(jù)里面,學(xué)到它們的表征 (Feature Representation) 。

對這個表征做聚類 (Clustering) ,然后把聚類的分配結(jié)果,當(dāng)成標(biāo)注來用。

這里的訓(xùn)練,用的是自監(jiān)督損失函數(shù)。

二是半監(jiān)督方法,也要做特征提取器,但比上一種方法復(fù)雜一點(diǎn)點(diǎn)。

在訓(xùn)練集的一個子集已經(jīng)標(biāo)注過的情況下,根據(jù)這些已知信息來學(xué)習(xí)表征,同時訓(xùn)練一個線性分類器 (Linear Classifier) 。

這樣,損失函數(shù)會在自監(jiān)督的基礎(chǔ)上,再加一項(xiàng)半監(jiān)督的交叉熵?fù)p失 (Cross-Entropy Loss) 。

預(yù)訓(xùn)練了特征提取器,就可以拿去訓(xùn)練GAN了。這個用一小部分已知標(biāo)注養(yǎng)成的GAN,叫做S2GAN。

不過,預(yù)訓(xùn)練也不是唯一的方法。

想要雙管齊下,可以用協(xié)同訓(xùn)練 (Co-Training) :

直接在判別器的表征上面,訓(xùn)練一個半監(jiān)督的線性分類器,用來預(yù)測沒有標(biāo)注的圖像。這個過程,和GAN的訓(xùn)練一同進(jìn)行。

這樣就有了S2GAN的協(xié)同版,叫S2GAN-CO。

升級一波

然后,團(tuán)隊(duì)還想讓S2GAN變得更強(qiáng)大,就在GAN訓(xùn)練的穩(wěn)定性上面花了心思。

研究人員說,判別器自己就是一個分類器嘛,如果把這個分類器擴(kuò)增 (Augmentation) 一下,可能療效上佳。

于是,他們給了分類器一個額外的自監(jiān)督任務(wù),就是為旋轉(zhuǎn)擴(kuò)增過的訓(xùn)練集 (包括真圖和假圖) ,做個預(yù)測。

再把這個步驟,和前面的半監(jiān)督模型結(jié)合起來,GAN的訓(xùn)練變得更加穩(wěn)定,就有了升級版S3GAN:

架構(gòu)脫胎于BigGAN

不管是S2GAN還是S3GAN,都借用了前輩BigGAN的網(wǎng)絡(luò)架構(gòu),用的優(yōu)化超參數(shù)也和前輩一樣。

不同的是,這個研究中,沒有使用正交正則化 (Orthogonal Regularization) ,也沒有使用截斷 (Truncation) 技巧。

△BigGAN的生成器和鑒別器架構(gòu)圖

訓(xùn)練的數(shù)據(jù)集,來自ImageNet,其中有130萬訓(xùn)練圖像和5萬測試圖像,圖像中共有1000個類別。

圖像尺寸被調(diào)整成了128×128×3,在每個類別中隨機(jī)選擇k%的樣本,來獲取半監(jiān)督方法中的使用的部分標(biāo)注數(shù)據(jù)集。

最后,在128核的Google TPU v3 Pod進(jìn)行訓(xùn)練。

超越BigGAN

研究對比的基線,是DeepMind的BigGAN,當(dāng)前記錄的保持者,F(xiàn)ID得分為7.4。

不過,他們在ImageNet上自己實(shí)現(xiàn)的BigGAN,F(xiàn)ID為8.4,IS為75,并以此作為了標(biāo)準(zhǔn)。

在這個圖表中,S2GAN是半監(jiān)督的預(yù)訓(xùn)練方法。S2GAN-CO是半監(jiān)督的協(xié)同訓(xùn)練方法。

S3GAN,是S2GAN加上一個自監(jiān)督的線性分類器 (把數(shù)據(jù)集旋轉(zhuǎn)擴(kuò)增之后再拿給它分類) 。

其中,效果最好的是S3GAN,只使用10%由人工標(biāo)注的數(shù)據(jù),F(xiàn)ID得分達(dá)到8.0,IS得分為78.7,表現(xiàn)均優(yōu)于BigGAN。

如果你對這項(xiàng)研究感興趣,請收好傳送門:

論文:

High-Fidelity Image Generation With Fewer Labels

https://arxiv.org/abs/1903.02271

文章開頭的這些照騙展示,就出自論文之中:

第一行是BigGAN作品,第二行是S3GAN新品,你猜對了嗎?

另外,他們還在GitHub上開源了論文中實(shí)驗(yàn)所用全部代碼:

https://github.com/google/compare_gan

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6196

    瀏覽量

    106018
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1089

    瀏覽量

    40574

原文標(biāo)題:史上最強(qiáng)GAN被谷歌超越!標(biāo)注數(shù)據(jù)少用90%,造假效果卻更逼真

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢可以帶來顯著的成果。通過利用谷歌的 Gemini 模型來制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3 模型根據(jù)這些提示生成高質(zhì)量的圖像
    的頭像 發(fā)表于 01-03 10:38 ?404次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen模型<b class='flag-5'>生成</b>高質(zhì)量<b class='flag-5'>圖像</b>

    AI智能體逼真模擬人類行為

    近日,據(jù)外媒最新報道,斯坦福大學(xué)、華盛頓大學(xué)與Google DeepMind的科研團(tuán)隊(duì)攜手合作,成功開發(fā)出一種能夠高度逼真模擬人類行為的AI智能體。 該智能體的構(gòu)建得益于研究團(tuán)隊(duì)將詳細(xì)的訪談記錄
    的頭像 發(fā)表于 11-26 10:24 ?472次閱讀

    深入理解渲染引擎:打造逼真圖像的關(guān)鍵

    在數(shù)字世界中,圖像渲染是創(chuàng)造逼真視覺效果的核心技術(shù)。渲染引擎,作為這一過程中的關(guān)鍵組件,負(fù)責(zé)將二維或三維的模型、紋理、光照等數(shù)據(jù)轉(zhuǎn)化為人們?nèi)庋劭梢姷亩S圖像。本文將深入探討渲染引擎的工
    的頭像 發(fā)表于 06-29 08:28 ?386次閱讀
    深入理解渲染引擎:打造<b class='flag-5'>逼真</b><b class='flag-5'>圖像</b>的關(guān)鍵

    谷歌和Meta希望與好萊塢合作獲得授權(quán)內(nèi)容

    據(jù)知情人士透露,谷歌母公司Alphabet和Meta正與好萊塢主要電影公司洽談,旨在獲得電影IP的授權(quán),用于其人工智能視頻生成軟件。這兩家科技巨頭正積極開發(fā)新技術(shù),能夠根據(jù)文本提示創(chuàng)建逼真的場景。
    的頭像 發(fā)表于 05-27 09:52 ?418次閱讀

    谷歌發(fā)布AI文生圖大模型Imagen

    近日,谷歌在人工智能領(lǐng)域取得新突破,正式推出了Imagen文生圖模型。這款模型以其卓越的細(xì)節(jié)調(diào)整功能、逼真的光線效果以及從草圖快速生成高分辨率圖像
    的頭像 發(fā)表于 05-16 09:30 ?583次閱讀

    谷歌發(fā)布Imagen 3,提升圖像文本生成技術(shù)

    已為谷歌人工智能研究所DeepMind掌門人的德米斯·哈薩比斯指出,相比于前款I(lǐng)magen 2,Image 3能夠更加精準(zhǔn)地解碼文字提示信息,并據(jù)此創(chuàng)建出更有創(chuàng)造力、細(xì)節(jié)豐富且出錯率較低的圖像
    的頭像 發(fā)表于 05-15 11:24 ?737次閱讀

    深度學(xué)習(xí)生成對抗網(wǎng)絡(luò)(GAN)全解析

    GANs真正的能力來源于它們遵循的對抗訓(xùn)練模式。生成器的權(quán)重是基于判別器的損失所學(xué)習(xí)到的。因此,生成生成圖像所推動著進(jìn)行訓(xùn)練,很難知
    發(fā)表于 03-29 14:42 ?4754次閱讀
    深度學(xué)習(xí)<b class='flag-5'>生成</b>對抗網(wǎng)絡(luò)(GAN)全解析

    OpenAI人工智能Sora自動生成視頻,究竟多逼真?你害怕嗎?

    早上醒來,OpenAI的文生視頻大模型Sora刷屏了,官方展示了幾個案例,看了后真是讓人直呼精彩,咱們一起看下。 第一個案例如下: 描述:一位時尚的女士穿過一條東京街道,街道上充滿了溫暖明亮
    的頭像 發(fā)表于 03-28 17:15 ?585次閱讀
    OpenAI人工智能Sora自動<b class='flag-5'>生成</b>視頻,究竟多<b class='flag-5'>逼真</b>?你害怕嗎?

    麻省理工與Adobe新技術(shù)DMD提升圖像生成速度

    2023年3月27日,據(jù)傳,新型文生圖算法雖然使得圖像生成無比逼真,但奈何運(yùn)行速度較慢。近期,美國麻省理工學(xué)院聯(lián)合Adobe推出新型DMD方法,僅略微犧牲圖像質(zhì)量就大幅度提高
    的頭像 發(fā)表于 03-27 14:17 ?572次閱讀

    谷歌計劃重新推出改進(jìn)后的Gemini AI模型人像生成功能

    谷歌DeepMind的首席執(zhí)行官德米斯·哈薩比斯在2月26日透露,公司計劃在接下來的幾周內(nèi)重新發(fā)布其備受關(guān)注的Gemini AI模型人像生成功能。此前,由于在某些歷史圖像生成描述中出現(xiàn)
    的頭像 發(fā)表于 02-28 10:17 ?660次閱讀

    谷歌暫停Gemini人像生成服務(wù)

    盡管谷歌團(tuán)隊(duì)于今年初就推介了這個GPU加速的人臉生成項(xiàng)目,但仍有部分用戶反映出生成的歷史名人形象存在著錯誤,因此決定實(shí)行技術(shù)停擺,并謀劃對這一功能進(jìn)行調(diào)整和優(yōu)化。
    的頭像 發(fā)表于 02-27 14:16 ?550次閱讀

    Groq推出大模型推理芯片 超越了傳統(tǒng)GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統(tǒng)GPU和谷歌TPU。
    的頭像 發(fā)表于 02-26 10:24 ?1207次閱讀
    Groq推出大模型推理芯片 <b class='flag-5'>超越</b>了傳統(tǒng)GPU和<b class='flag-5'>谷歌</b>TPU

    谷歌Gemini AI模型因人物圖像生成問題暫停運(yùn)行

    據(jù)報道,部分用戶發(fā)現(xiàn)Gemini生成的圖片存在明顯錯誤,如特斯拉創(chuàng)始人和其他名人變成了黑人模樣。谷歌已決定暫停該模型的人物圖像生成功能以待改善。
    的頭像 發(fā)表于 02-25 09:59 ?643次閱讀

    鴻蒙開發(fā)圖形圖像——@ohos.effectKit (圖像效果)

    圖像效果提供處理圖像的一些基礎(chǔ)能力,包括對當(dāng)前圖像的亮度調(diào)節(jié)、模糊化、灰度調(diào)節(jié)、智能取色等。 該模塊提供以下
    的頭像 發(fā)表于 02-22 16:08 ?470次閱讀
    鴻蒙開發(fā)圖形<b class='flag-5'>圖像</b>——@ohos.effectKit (<b class='flag-5'>圖像</b><b class='flag-5'>效果</b>)

    OpenAI發(fā)布文生視頻模型Sora,引領(lǐng)AI視頻生成新紀(jì)元

    在人工智能(AI)領(lǐng)域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款業(yè)界廣泛贊譽(yù)的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)視頻生成
    的頭像 發(fā)表于 02-19 11:03 ?1022次閱讀
    威尼斯人娱乐城赌博| 迪威百家乐官网娱乐场| 万人迷百家乐的玩法技巧和规则| 百家乐官网投注庄闲法| 百家乐官网赌博是否违法| 北京太阳城三期| 西游记百家乐娱乐城| 澳门百家乐官网线上娱乐城| 君怡百家乐的玩法技巧和规则| 百家乐官网电脑游戏机投注法实例| 大发888玩家论坛| 三合四局24向黄泉| 静宁县| 网上百家乐是现场吗| 百家乐官网桌布9人| 大发888网上支付| 百家乐三珠连跳打法| 新濠百家乐官网现金网| 威尼斯人娱乐场开户注册 | 全讯网25900.com| 新濠百家乐官网娱乐城| 新宾| 新西兰百家乐的玩法技巧和规则| 百家乐官网永利娱乐场开户注册| 京城娱乐城| 百家乐计划| 高尔夫百家乐官网的玩法技巧和规则 | 在线赌场| 乐天百家乐的玩法技巧和规则| 皇室百家乐官网的玩法技巧和规则| 米兰国际娱乐城| 金界百家乐的玩法技巧和规则| 金木棉百家乐官网的玩法技巧和规则| 百家乐官网连闲几率| 威尼斯人娱乐城玩百家乐| 百家乐转盘技巧| 澳门百家乐官网怎么看小路| 888娱乐城返水| 百家乐真人荷官网| 百家乐官网平注法到65| 注册百家乐官网送彩金 |