一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌AI新方法可提升10倍圖像識(shí)別效率 關(guān)鍵還簡單易用

hl5C_deeptechch ? 來源:yxw ? 2019-06-06 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在開發(fā)以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為核心的機(jī)器學(xué)習(xí)模型時(shí),我們通常會(huì)先使用固定的資源成本,構(gòu)建最初的模型,然后增加更多資源(層數(shù))擴(kuò)展模型,從而獲得更高的準(zhǔn)確率。

著名的 CNN 模型 ResNet(深度殘差網(wǎng)絡(luò)),就可以用增加層數(shù)的方法從ResNet-18 擴(kuò)展到 ResNet-200。谷歌的 GPipe 模型也通過將基線 CNN 擴(kuò)展 4 倍,在 ImageNet 數(shù)據(jù)庫上達(dá)到84.3% 的準(zhǔn)確率,力壓所有模型。

一般來說,模型的擴(kuò)大和縮小都是任意增加 CNN 的深度或?qū)挾?,抑或是使用分辨率更大的圖像進(jìn)行訓(xùn)練和評估。雖然這些傳統(tǒng)方法提高準(zhǔn)確率的效果不錯(cuò),但大多需要繁瑣的手動(dòng)調(diào)整,還可能無法達(dá)到最佳性能。

因此,谷歌AI團(tuán)隊(duì)最近提出了新的模型縮放方法“復(fù)合縮放(CompoundScaling)”和配套的EfficientNet 模型。他們使用復(fù)合系數(shù)和 AutoML 從多個(gè)維度均衡縮放 CNN,綜合考慮深度和寬度等參數(shù),而不是只單純地考慮一個(gè),使得模型的準(zhǔn)確率和效率大幅提升,圖像識(shí)別的效率甚至可以大幅提升 10 倍。

這項(xiàng)新方法的根本優(yōu)勢在于實(shí)踐起來非常簡單,背后的原理很好理解,甚至讓人懷疑為什么沒有被更早發(fā)現(xiàn)。該研究成果以論文的形式被 ICML2019(國際機(jī)器學(xué)習(xí)大會(huì))接收,名為 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks。EfficientNet 模型的相關(guān)代碼和 TPU 訓(xùn)練數(shù)據(jù)也已經(jīng)在 GitHub 上開源。

尋找復(fù)合系數(shù)

為了弄清楚神經(jīng)網(wǎng)絡(luò)縮放之后的效果,谷歌團(tuán)隊(duì)系統(tǒng)地研究了改變不同維度對模型的影響,維度參數(shù)包括網(wǎng)絡(luò)深度、寬度和圖像分辨率。

首先他們進(jìn)行了柵格搜索(GridSearch)。這是一種窮舉搜索方法,可以在固定資源的限定下,列出所有參數(shù)之間的關(guān)系,顯示出改變某一種維度時(shí),基線網(wǎng)絡(luò)模型會(huì)受到什么樣的影響。換句話說,如果只改變了寬度、深度或分辨率,模型的表現(xiàn)會(huì)發(fā)生什么變化。

圖 |以基線網(wǎng)絡(luò)為基礎(chǔ),列出所有維度變化對模型的影響

綜合考慮所有情況之后,他們確定了每個(gè)維度最合適的調(diào)整系數(shù),然后將它們一同應(yīng)用到基線網(wǎng)絡(luò)中,對每個(gè)維度都進(jìn)行適當(dāng)?shù)目s放,并且確保其符合目標(biāo)模型的大小和計(jì)算預(yù)算。

簡單來說,就是分別找到寬度、深度和分辨率的最佳系數(shù),然后將它們組合起來一起放入原本的網(wǎng)絡(luò)模型中,對每一個(gè)維度都有所調(diào)整。從整體的角度縮放模型。

與傳統(tǒng)方法相比,這種復(fù)合縮放法可以持續(xù)提高模型的準(zhǔn)確性和效率。在現(xiàn)有模型 MobileNet 和 ResNet 上的測試結(jié)果顯示,它分別提高了 1.4% 和 0.7% 的準(zhǔn)確率。

高效的網(wǎng)絡(luò)架構(gòu)和性能

縮放模型的有效性也依賴于基線網(wǎng)絡(luò)(架構(gòu))本身。

因?yàn)?,為了進(jìn)一步提高性能,谷歌 AI 團(tuán)隊(duì)還使用了 AutoMLMNAS 框架進(jìn)行神經(jīng)架構(gòu)搜索,優(yōu)化準(zhǔn)確性和效率。AutoML 是一種可以自動(dòng)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)的技術(shù),由谷歌團(tuán)隊(duì)在 2017 年提出,而且經(jīng)過了多次優(yōu)化更新。使用這種技術(shù)可以更簡便地創(chuàng)造神經(jīng)網(wǎng)絡(luò)。

由此產(chǎn)生的架構(gòu)使用了移動(dòng)倒置瓶頸卷積(MBConv),類似于 MobileNetV2 和 MnasNet 模型,但由于計(jì)算力(FLOPS)預(yù)算增加,MBConv 模型體積略大。隨后他們多次縮放了基線網(wǎng)絡(luò),組成了一系列模型,統(tǒng)稱為EfficientNets。

圖 |EfficientNet-B0 基線網(wǎng)絡(luò)架構(gòu)

為了測試其性能,研究人員與 ImageNet 上的其他現(xiàn)有 CNN 進(jìn)行了比較。結(jié)果顯示,EfficientNet 在大多數(shù)情況下表現(xiàn)亮眼,比現(xiàn)有 CNN 的準(zhǔn)確率和效率都高,還將參數(shù)大小和計(jì)算力降低了一個(gè)數(shù)量級。

比如 EfficientNet-B7 在 ImageNet 上達(dá)到的 Top-1 最高準(zhǔn)確率是 84.4%,Top-5 準(zhǔn)確率是 97.1%。在 CPU 推理上,它的體積比最好的 CNN 模型 GPipe 小 8.4 倍,但速度快了 6.1 倍。與廣泛使用的 ResNet-50 相比,EfficientNet-B4 使用了類似的計(jì)算力,但 Top-1 準(zhǔn)確率從 76.3% 提升到了 82.6%。

圖 |參數(shù)使用量和 ImageNetTop-1 準(zhǔn)確率對比

此外,EfficientNets 不僅在 ImageNet 上表現(xiàn)出眾,其能力還可以轉(zhuǎn)移到其它數(shù)據(jù)集上。

他們在 8 個(gè)流行的遷移學(xué)習(xí)數(shù)據(jù)集上測試了 EfficientNets。結(jié)果顯示,它在其中的 5 個(gè)上面都拿到了頂尖成績,例如在 CIFAR-100 上獲得了 91.7% 的成績,在 Flowers 上獲得了 98.8% 的成績,而且參數(shù)至少減少了一個(gè)數(shù)量級,甚至還可以最多減少 21 倍,說明 EfficientNets 具有很強(qiáng)的遷移能力。

谷歌 AI 團(tuán)隊(duì)認(rèn)為,EfficientNets 有望憑借簡單易操作的特點(diǎn),成為未來計(jì)算機(jī)視覺任務(wù)的新基石。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108134
  • 圖像識(shí)別
    +關(guān)注

    關(guān)注

    9

    文章

    527

    瀏覽量

    39111
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35143

    瀏覽量

    279818

原文標(biāo)題:谷歌 AI 新方法:可提升 10 倍圖像識(shí)別效率,關(guān)鍵還簡單易用

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    火車車號(hào)圖像識(shí)別系統(tǒng)如何應(yīng)對不同光照條件下的識(shí)別問題?

    在鐵路運(yùn)輸管理中,準(zhǔn)確識(shí)別火車車號(hào)是實(shí)現(xiàn)自動(dòng)化車輛管理的關(guān)鍵環(huán)節(jié)。然而,實(shí)際應(yīng)用場景中復(fù)雜多變的光照條件給車號(hào)識(shí)別帶來了巨大挑戰(zhàn)?,F(xiàn)代火車車號(hào)圖像識(shí)別系統(tǒng)通過多項(xiàng)技術(shù)創(chuàng)新,有效解決了這
    的頭像 發(fā)表于 07-15 11:37 ?121次閱讀
    火車車號(hào)<b class='flag-5'>圖像識(shí)別</b>系統(tǒng)如何應(yīng)對不同光照條件下的<b class='flag-5'>識(shí)別</b>問題?

    【嘉楠堪智K230開發(fā)板試用體驗(yàn)】01 Studio K230開發(fā)板Test2——手掌,手勢檢測,字符檢測

    K210 的 13.7 以上,同時(shí)保持高計(jì)算效率(利用率超過 70%)。這意味著它能處理更復(fù)雜模型或更多并發(fā)任務(wù)。 KPU 是 CanMV K230 的專用視覺處理引擎,賦予開發(fā)板強(qiáng)大的實(shí)時(shí)圖像識(shí)別
    發(fā)表于 07-10 09:45

    無刷直流電機(jī)反電勢過零檢測新方法

    新方法。在三相采樣等效電路上分別并聯(lián)一組三極管控制的電阻分壓開關(guān)電路,參考電機(jī)轉(zhuǎn)速線性調(diào)節(jié)控制信號(hào)占空比,以此控制三極管通斷,從而調(diào)節(jié)電阻分樂開關(guān)電路阻值,可以避免高速時(shí)反電勢幅值高于檢測電路供電電壓
    發(fā)表于 06-26 13:50

    AI視覺識(shí)別收銀稱:水果生鮮店的“智能店員”

    僅耗時(shí)費(fèi)力,容易出現(xiàn)人為錯(cuò)誤。而生鮮自動(dòng)識(shí)別稱重收銀一體機(jī)、AI視覺識(shí)別收銀秤、生鮮稱重收銀秤和AI生鮮
    的頭像 發(fā)表于 06-07 10:19 ?139次閱讀
    <b class='flag-5'>AI</b>視覺<b class='flag-5'>識(shí)別</b>收銀稱:水果生鮮店的“智能店員”

    手持終端集裝箱識(shí)別系統(tǒng)的圖像識(shí)別技術(shù)

    行業(yè)提供了更靈活、精準(zhǔn)的管理工具。 一、技術(shù)核心:OCR+AI深度融合 現(xiàn)代手持終端系統(tǒng)采用多模態(tài)圖像識(shí)別技術(shù),結(jié)合深度學(xué)習(xí)算法,快速捕捉并解析集裝箱號(hào)碼。其技術(shù)優(yōu)勢體現(xiàn)在: 1. 復(fù)雜環(huán)境適應(yīng)性:通過動(dòng)態(tài)曝光補(bǔ)償和
    的頭像 發(fā)表于 04-03 10:49 ?297次閱讀

    岸橋箱號(hào)識(shí)別系統(tǒng)如何工作?揭秘AI圖像識(shí)別技術(shù)!

    在港口自動(dòng)化升級的浪潮中,AI岸橋識(shí)別系統(tǒng)憑借前沿的圖像識(shí)別技術(shù),成為提升碼頭作業(yè)效率的“智慧之眼”。那么,這套系統(tǒng)如何實(shí)現(xiàn)集裝箱信息的精準(zhǔn)
    的頭像 發(fā)表于 04-02 09:45 ?254次閱讀

    谷歌正式發(fā)布Gemini 2.0 性能提升近兩

    2.0在關(guān)鍵基準(zhǔn)測試中相比前代產(chǎn)品Gemini 1.5 Pro的性能提升了近兩。該模型支持圖像、視頻和音頻等多種輸入與輸出形式,例如可以實(shí)現(xiàn)文本與
    的頭像 發(fā)表于 12-12 14:22 ?822次閱讀

    高幀頻圖像識(shí)別反無人機(jī) 慧視有辦法!

    無人機(jī)的迅猛發(fā)展,使得無人機(jī)的反制技術(shù)也水漲船高,常見的有電子干擾、無人機(jī)識(shí)別對抗等。前者通過發(fā)射特定頻率的無線電波對無人機(jī)的通信鏈路、控制信號(hào)實(shí)施干擾。后者采用圖像識(shí)別技術(shù),通過在無人機(jī)微型攝像頭
    的頭像 發(fā)表于 12-04 01:06 ?601次閱讀
    高幀頻<b class='flag-5'>圖像識(shí)別</b>反無人機(jī)   慧視有辦法!

    AI圖像識(shí)別攝像機(jī)

    隨著科技的迅猛發(fā)展,人工智能(AI)在各個(gè)領(lǐng)域的應(yīng)用越來越廣泛,其中圖像識(shí)別技術(shù)尤為引人注目。AI圖像識(shí)別攝像機(jī)作為這一技術(shù)的重要應(yīng)用之一,正在逐步改變我們的生活和工作方式。什么是
    的頭像 發(fā)表于 11-08 10:38 ?872次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>圖像識(shí)別</b>攝像機(jī)

    AI大模型在圖像識(shí)別中的優(yōu)勢

    大模型借助高性能的計(jì)算硬件和優(yōu)化的算法,能夠在短時(shí)間內(nèi)完成對大量圖像數(shù)據(jù)的處理和分析,顯著提高了圖像識(shí)別效率。 識(shí)別準(zhǔn)確性 :通過深度學(xué)習(xí)和計(jì)算機(jī)視覺技術(shù),
    的頭像 發(fā)表于 10-23 15:01 ?2436次閱讀

    【飛凌嵌入式OK3576-C開發(fā)板體驗(yàn)】RKNPU圖像識(shí)別測試

    和突觸的處理器,特別擅長處理人工智能任務(wù),能夠大大降低CPU和GPU的負(fù)擔(dān)。 功能 :RKNPU負(fù)責(zé)處理需要高計(jì)算性能的人工智能任務(wù),如圖像識(shí)別、語音識(shí)別、自然語言處理等,從而提升設(shè)備的智能化水平
    發(fā)表于 10-10 09:27

    保護(hù)4-20 mA,±20-mA模擬輸入的新方法

    電子發(fā)燒友網(wǎng)站提供《保護(hù)4-20 mA,±20-mA模擬輸入的新方法.pdf》資料免費(fèi)下載
    發(fā)表于 09-24 09:27 ?0次下載
    保護(hù)4-20 mA,±20-mA模擬輸入的<b class='flag-5'>新方法</b>

    基于迅為RK3568/RK3588開發(fā)板的AI圖像識(shí)別方案

    https://www.bilibili.com/video/BV1G54y1A7nf/?spm_id_from=333.999.0.0 迅為RK3568/RK3588開發(fā)板AI識(shí)別演示方案,包括
    發(fā)表于 08-28 09:50

    實(shí)踐JLink 7.62手動(dòng)增加新MCU型號(hào)支持新方法

    大家好,我是痞子衡,是正經(jīng)搞技術(shù)的痞子。今天痞子衡給大家分享的是實(shí)踐JLink 7.62手動(dòng)增加新MCU型號(hào)支持新方法。
    的頭像 發(fā)表于 08-08 15:25 ?1398次閱讀
    實(shí)踐JLink 7.62手動(dòng)增加新MCU型號(hào)支持<b class='flag-5'>新方法</b>

    一種無透鏡成像的新方法

    透鏡成像形式,它使用掃描光束收集散射光進(jìn)行圖像重建,面臨著周期性樣品的挑戰(zhàn)。為了研究微電子或光子元件中的納米級圖案,一種基于無透鏡成像的新方法可以實(shí)現(xiàn)近乎完美的高分辨率顯微鏡。這在波長短于紫外線時(shí)尤為重要,其成像空間分辨率高于
    的頭像 發(fā)表于 07-19 06:20 ?765次閱讀
    一種無透鏡成像的<b class='flag-5'>新方法</b>