衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google發(fā)布新API,支持訓(xùn)練更小更快的AI模型

獨(dú)愛72H ? 來源:雷鋒網(wǎng) ? 作者:佚名 ? 2020-04-09 21:55 ? 次閱讀

(文章來源:雷鋒網(wǎng))
Google發(fā)布了 Quantification Aware Training(QAT)API,使開發(fā)人員可以利用量化的優(yōu)勢(shì)來訓(xùn)練和部署模型AI模型。通過這個(gè)API,可以將輸入值從大集合映射到較小集合的輸出,同時(shí),保持接近原始狀態(tài)的準(zhǔn)確性。

新的API的目標(biāo)是支持開發(fā)更小、更快、更高效的機(jī)器學(xué)習(xí)(ML)模型,這些模型非常適合在現(xiàn)有的設(shè)備上運(yùn)行,例如那些計(jì)算資源非常寶貴的中小型企業(yè)環(huán)境中的設(shè)備。

通常,從較高精度到較低精度的過程有很多噪聲。因?yàn)榱炕研》秶母↑c(diǎn)數(shù)壓縮為固定數(shù)量的信息存儲(chǔ)區(qū)中,這導(dǎo)致信息損失,類似于將小數(shù)值表示為整數(shù)時(shí)的舍入誤差(例如,在范圍[2.0,2.3]中的所有值都可以在相同的存儲(chǔ)中表示。)。問題在于,當(dāng)在多個(gè)計(jì)算中使用有損數(shù)時(shí),精度損失就會(huì)累積,這就需要為下一次計(jì)算重新標(biāo)度。

谷歌新發(fā)布的QAT API通過在AI模型訓(xùn)練過程中模擬低精度計(jì)算來解決此問題。在整個(gè)訓(xùn)練過程中,將量化誤差作為噪聲引入,QAT API的算法會(huì)嘗試將誤差最小化,以便它學(xué)習(xí)這個(gè)過程中的變量,讓量化有更強(qiáng)的魯棒性。訓(xùn)練圖是利用了將浮點(diǎn)對(duì)象轉(zhuǎn)換為低精度值,然后再將低精度值轉(zhuǎn)換回浮點(diǎn)的操作,從而確保了在計(jì)算中引入了量化損失,并確保了進(jìn)一步的計(jì)算也可以模擬低精度。

谷歌在報(bào)告中給出的測(cè)試結(jié)果顯示,在開源Imagenet數(shù)據(jù)集的圖像分類模型(MobilenetV1 224)上進(jìn)行測(cè)試,結(jié)果顯示未經(jīng)量化的精度為71.03%,量化后的精度達(dá)到了71.06%。

Google發(fā)布新API,支持訓(xùn)練更小更快的AI模型

針對(duì)相同數(shù)據(jù)集測(cè)試的另一種分類模型(Nasnet-Mobile)中測(cè)試,在量化后僅有1%的精度損失(74%至73%)。除了模擬精度降低的計(jì)算外,QAT API還負(fù)責(zé)記錄必要的統(tǒng)計(jì)信息,以量化訓(xùn)練整個(gè)模型或模型的一部分。比如,這可以使開發(fā)人員能夠通過調(diào)用模型訓(xùn)練API將模型轉(zhuǎn)換為量化的TensorFlow Lite模型。或者,開發(fā)人員可以在模擬量化如何影響不同硬件后端的準(zhǔn)確性的同時(shí)嘗試各種量化策略。

Google發(fā)布新API,支持訓(xùn)練更小更快的AI模型

Google表示,在默認(rèn)情況下,作為TensorFlow模型優(yōu)化工具包一部分的QAT API配置為與TensorFlow Lite中提供的量化執(zhí)行支持一起使用,TensorFlow Lite是Google的工具集,旨在將其TensorFlow機(jī)器學(xué)習(xí)框架上構(gòu)建的模型能夠適應(yīng)于移動(dòng)設(shè)備,嵌入式物聯(lián)網(wǎng)設(shè)備。“我們很高興看到QAT API如何進(jìn)一步使TensorFlow用戶在其支持TensorFlow Lite的產(chǎn)品中突破有效執(zhí)行的界限,以及它如何為研究新的量化算法和進(jìn)一步開發(fā)具有不同精度特性的新硬件平臺(tái)打開大門”,Google在博客中寫道。

QAT API的正式發(fā)布是在TensorFlow Dev Summit上,也是在發(fā)布了用于訓(xùn)練量子模型的機(jī)器學(xué)習(xí)框架TensorFlow Quantum之后發(fā)布。谷歌也在會(huì)議的會(huì)話中預(yù)覽了QAT API。
(責(zé)任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6194

    瀏覽量

    106014
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    1510

    瀏覽量

    62395
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Google兩款先進(jìn)生成式AI模型登陸Vertex AI平臺(tái)

    新的 AI 模型,包括最先進(jìn)的視頻生成模型Veo以及最高品質(zhì)的圖像生成模型Imagen 3。近日,我們?cè)?Google Cloud 上進(jìn)一步
    的頭像 發(fā)表于 12-30 09:56 ?143次閱讀

    GPU是如何訓(xùn)練AI模型

    AI模型訓(xùn)練過程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來,AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?240次閱讀

    使用英特爾AI PC為YOLO模型訓(xùn)練加速

    在以往的實(shí)踐中,當(dāng)我們針對(duì) ultralytics 的 YOLO 模型開展訓(xùn)練工作時(shí),可供選擇的計(jì)算設(shè)備通常局限于 CPU、mps 以及 cuda 這幾種。然而,自 PyTorch2.5 版本發(fā)布
    的頭像 發(fā)表于 12-09 16:14 ?484次閱讀
    使用英特爾<b class='flag-5'>AI</b> PC為YOLO<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>加速

    在設(shè)備上利用AI Edge Torch生成式API部署自定義大語言模型

    MediaPipe LLM Inference API 讓開發(fā)者們能夠?qū)⒁恍┳钍軞g迎的 LLM 部署到設(shè)備上。現(xiàn)在,我們很高興能進(jìn)一步拓展對(duì)模型支持范圍,并讓大家部署到設(shè)備,而且具備優(yōu)秀的性能表現(xiàn)。今天
    的頭像 發(fā)表于 11-14 10:23 ?541次閱讀
    在設(shè)備上利用<b class='flag-5'>AI</b> Edge Torch生成式<b class='flag-5'>API</b>部署自定義大語言<b class='flag-5'>模型</b>

    Google AI Edge Torch的特性詳解

    我們很高興地發(fā)布 Google AI Edge Torch,可將 PyTorch 編寫的模型直接轉(zhuǎn)換成 TFLite 格式 (.tflite),且有著優(yōu)異的
    的頭像 發(fā)表于 11-06 10:48 ?467次閱讀
    <b class='flag-5'>Google</b> <b class='flag-5'>AI</b> Edge Torch的特性詳解

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?426次閱讀

    AI模型訓(xùn)練數(shù)據(jù)來源分析

    AI模型訓(xùn)練數(shù)據(jù)來源廣泛且多元化,這些數(shù)據(jù)源對(duì)于構(gòu)建和優(yōu)化AI模型至關(guān)重要。以下是對(duì)AI
    的頭像 發(fā)表于 10-23 15:32 ?1132次閱讀

    如何訓(xùn)練自己的AI模型

    訓(xùn)練自己的AI模型是一個(gè)復(fù)雜且耗時(shí)的過程,涉及多個(gè)關(guān)鍵步驟。以下是一個(gè)詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類型的
    的頭像 發(fā)表于 10-23 15:07 ?2885次閱讀

    如何訓(xùn)練ai模型

    訓(xùn)練AI模型是一個(gè)復(fù)雜且耗時(shí)的過程,涉及多個(gè)關(guān)鍵步驟和細(xì)致的考量。 一、數(shù)據(jù)準(zhǔn)備 1. 數(shù)據(jù)收集 確定數(shù)據(jù)類型 :根據(jù)模型的應(yīng)用場(chǎng)景,確定需要收集的數(shù)據(jù)類型,如文本、圖像、音頻等。
    的頭像 發(fā)表于 10-17 18:17 ?1451次閱讀

    ai模型訓(xùn)練需要什么配置

    AI模型訓(xùn)練是一個(gè)復(fù)雜且資源密集的過程,它依賴于高性能的硬件配置來確保訓(xùn)練的效率和效果。 一、處理器(CPU) CPU是計(jì)算機(jī)的核心部件,負(fù)責(zé)處理各種計(jì)算任務(wù)。在
    的頭像 發(fā)表于 10-17 18:10 ?1925次閱讀

    ai模型訓(xùn)練方法有哪些?

    AI模型訓(xùn)練方法是一個(gè)復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強(qiáng) 數(shù)據(jù)
    的頭像 發(fā)表于 07-16 10:11 ?1813次閱讀

    ai模型ai框架的關(guān)系是什么

    的數(shù)據(jù)和計(jì)算資源來進(jìn)行訓(xùn)練AI模型的主要特點(diǎn)包括: 1.1 參數(shù)數(shù)量大:AI模型的參數(shù)數(shù)量通常在數(shù)百萬到數(shù)十億之間,這使得它們能夠捕捉
    的頭像 發(fā)表于 07-16 10:07 ?4.9w次閱讀

    ai模型和傳統(tǒng)ai的區(qū)別在哪?

    AI模型和傳統(tǒng)AI的區(qū)別主要體現(xiàn)在以下幾個(gè)方面: 數(shù)據(jù)量和訓(xùn)練規(guī)模 AI模型通常需要大量的數(shù)
    的頭像 發(fā)表于 07-16 10:06 ?1614次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    數(shù)據(jù)格式的轉(zhuǎn)換、數(shù)據(jù)字段的匹配和整合等。通過數(shù)據(jù)級(jí)凈化,可以進(jìn)一步提高數(shù)據(jù)的質(zhì)量和可用性,為后續(xù)的數(shù)據(jù)分析和建模提供更有價(jià)值的數(shù)據(jù)支持。 在得到了大語言模型的數(shù)據(jù)之后,就是對(duì)其進(jìn)行預(yù)訓(xùn)練。大圓
    發(fā)表于 05-07 17:10

    零一萬物正式發(fā)布Yi大模型API開放平臺(tái)

    近日,零一萬物正式發(fā)布Yi大模型API開放平臺(tái),為開發(fā)者提供通用Chat、200k超長(zhǎng)上下文、多模態(tài)交互等模型
    的頭像 發(fā)表于 03-17 09:55 ?1265次閱讀
    哪家百家乐从哪而来| 在线百家乐官网策略| 大发888dafa888| 跨国际百家乐官网的玩法技巧和规则 | 百家乐官网有无技巧| 娱乐城送钱| 真钱百家乐哪里最好| 百家乐官网园选百利宫| 香港六合彩总公司| 百家乐必学技巧| 缅甸百家乐官网赌博有假吗 | 永利百家乐娱乐平台| 澳门百家乐官网单注下注| 博彩qq群| 百家乐合作| 百家乐娱乐城返水| 百家乐官网比赛技巧| 大发888为什么进不去| 百家乐园游戏77sonci...| 跨国际百家乐官网的玩法技巧和规则| 百家乐官网太阳城线上| 大庆冠通棋牌世界| 百家乐凯时娱乐网| 金钱豹百家乐官网的玩法技巧和规则| 百家乐官网平台哪个好本站所有数据都是网友推荐及提供 | 百家乐怎么下可以赢| 博彩百家乐官网字谜总汇| 百家乐官网高手长胜攻略| 甘谷县| 赌博游戏| 大发888 dafa888uk.com| 华硕百家乐的玩法技巧和规则 | 百家乐官网博娱乐赌百家乐官网的玩法技巧和规则 | 博威娱乐在线| 大发888网上支付| 百家乐麻将筹码币| 澳门百家乐实战视频| 百家乐真人娱乐场| 百家乐官网最好投注法是怎样的去哪儿能了解一下啊 | 百家乐创立几年了| 百家乐网上娱乐场开户注册|