一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

賦予機(jī)器自主設(shè)計(jì)模型“能力”,一文概覽結(jié)構(gòu)搜索的起源

倩倩 ? 來源:雷鋒網(wǎng) ? 2020-03-27 15:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

伴隨著人工智能技術(shù)的飛速發(fā)展,語音識(shí)別、機(jī)器翻譯等各項(xiàng)科技名詞已不是傳統(tǒng)意義上被企業(yè)家束之高閣的前景應(yīng)用,更不是研究人員諱莫如深的復(fù)雜概念,它們已經(jīng)伴隨著大數(shù)據(jù)時(shí)代的來臨走入了尋常人的身邊。如今的生活中我們無處不在享受著人工智能技術(shù)帶給我們的便利,從前在科幻電影《星際迷航》中使用的通用翻譯器,已然成為了現(xiàn)在人們出行途中能夠使用的小型翻譯機(jī)。而撥開這些實(shí)際應(yīng)用的面紗,它們背后所使用的技術(shù)往往是這些年來備受關(guān)注的神經(jīng)網(wǎng)絡(luò)模型。

通俗來講,它是一種對(duì)外部輸入信息進(jìn)行學(xué)習(xí)的數(shù)學(xué)模型或計(jì)算模型。它能夠通過對(duì)自身內(nèi)部結(jié)構(gòu)的調(diào)整來擬合輸入數(shù)據(jù),憑借著算法廣泛的通用性,其在語音、圖像、自然語言處理等眾多領(lǐng)域得到了廣泛的應(yīng)用。

電影《星際迷航》里科克船長和老骨頭所使用的實(shí)時(shí)翻譯設(shè)備

而對(duì)于目前的基于神經(jīng)網(wǎng)絡(luò)技術(shù)的各項(xiàng)任務(wù)而言,主要的過程依舊是由研究人員手動(dòng)地探索新的網(wǎng)絡(luò)結(jié)構(gòu),比如我們常見的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network; RNN)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network; CNN)等。但這樣做實(shí)際上是一個(gè)非常系統(tǒng)工程的方式,我們把研究人員束縛在崗位上不斷地去“設(shè)計(jì)”所謂的更好的結(jié)構(gòu),而模型的好與壞則往往取決于人對(duì)任務(wù)的理解以及模型設(shè)計(jì)上的想象力,整個(gè)過程需要研究人員對(duì)相關(guān)領(lǐng)域有著充分的認(rèn)知,間接提高了從業(yè)人員的入門門檻,與此同時(shí)通過人工不斷地對(duì)模型結(jié)構(gòu)進(jìn)行改良也非常耗費(fèi)時(shí)間。

隨著近年來計(jì)算機(jī)設(shè)備的算力以及存儲(chǔ)能力逐年遞增,人們逐漸開始去思考是否我們可以讓計(jì)算機(jī)像學(xué)網(wǎng)絡(luò)參數(shù)一樣學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)?希望能通過這種方式將研究人員從模型結(jié)構(gòu)設(shè)計(jì)者的位置上“解救”出來,于是就有了這樣一個(gè)機(jī)器學(xué)習(xí)領(lǐng)域的研究分支——網(wǎng)絡(luò)結(jié)構(gòu)搜索(Neural Architecture Search; NAS)。

實(shí)際上目前神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)已經(jīng)在各個(gè)領(lǐng)域中嶄露頭角,如谷歌團(tuán)隊(duì)在Searching for Activation Functions【1】論文中通過對(duì)激活函數(shù)空間進(jìn)行搜索發(fā)現(xiàn)了Swish函數(shù),相對(duì)諸如Relu等傳統(tǒng)人工設(shè)計(jì)的激活函數(shù)具有更快的收斂速度。而微軟團(tuán)隊(duì)在WMT19機(jī)器翻譯評(píng)測任務(wù)中同樣也采用了其團(tuán)隊(duì)提出的NAO【2】方法來自動(dòng)地對(duì)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化,在英語-芬蘭語以及芬蘭語-英語的任務(wù)上均取得了不俗的成績。

可以看到網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)的使用已經(jīng)為各項(xiàng)任務(wù)中模型結(jié)構(gòu)的設(shè)計(jì)起到非常好的助力,那么其背后究竟使用了怎樣的技術(shù)?如何能夠讓神經(jīng)網(wǎng)絡(luò)自動(dòng)地對(duì)自身結(jié)構(gòu)進(jìn)行改良?雖然目前網(wǎng)絡(luò)結(jié)構(gòu)的搜索技術(shù)依舊方興未艾,但已然存在很多來自工業(yè)界以及學(xué)術(shù)界的團(tuán)隊(duì)在不斷努力探索更好的方法。

可以預(yù)計(jì)在不遠(yuǎn)的將來,隨著科研人員的努力以及計(jì)算資源的進(jìn)一步提升,網(wǎng)絡(luò)結(jié)構(gòu)搜索的技術(shù)將大幅降低模型結(jié)構(gòu)的更迭所需要的時(shí)間周期,同時(shí)能夠讓研究人員有更多地精力去探索有趣的應(yīng)用或討論神經(jīng)網(wǎng)絡(luò)背后的可解釋性。當(dāng)然在這個(gè)過程中,我們需要審視這門技術(shù)的發(fā)展歷史,同時(shí)對(duì)未來的發(fā)展趨勢進(jìn)行展望。

微軟團(tuán)隊(duì)在WMT19機(jī)器翻譯評(píng)測任務(wù)中英語-芬蘭語任務(wù)的提交信息

從“人工”到“自動(dòng)”的突圍

人類對(duì)于自動(dòng)化的追求從未停止,這一點(diǎn)從三次工業(yè)革命的目標(biāo)即可看到端倪,它們無一不在為了將人們從繁復(fù)的工作中解放出來不懈努力。而對(duì)于機(jī)器學(xué)習(xí)任務(wù)而言,人們也依舊在不斷地探索,希望能夠讓機(jī)器在無需人類過多干預(yù)的情況下,真正地替代人去完成更多的工作,而在這個(gè)過程中研究人員始終在不斷嘗試,努力做好這次從“人工”到“自動(dòng)”的突圍。

機(jī)器學(xué)習(xí)方法的演化與變遷

傳統(tǒng)機(jī)器學(xué)習(xí)

如果我們將機(jī)器學(xué)習(xí)所處理的任務(wù)建模為一種從輸入到輸出的映射學(xué)習(xí),那么在初代的機(jī)器學(xué)習(xí)算法中,我們不僅需要設(shè)計(jì)一種適用于當(dāng)前任務(wù)的方法(如廣泛使用的決策樹、支持向量機(jī)等),同時(shí)還要為其提供人工設(shè)計(jì)的特征集合,在完成這些工作之后,才能使用數(shù)據(jù)對(duì)模型中的參數(shù)進(jìn)行調(diào)優(yōu)。

以情感分析為例,我們可以向模型中輸入詞性、詞頻及其情感屬性等信息,然后通過支持向量機(jī)的模型來對(duì)情感分析任務(wù)進(jìn)行建模,其中詞性、詞頻以及情感屬性即為我們從句子中提取出的人工設(shè)計(jì)的模型特征,支持向量機(jī)則是我們選擇來解決當(dāng)前問題的機(jī)器學(xué)習(xí)算法。

我們可以看到,不管是輸入的特征還是模型自身,均為研究人員歸納總結(jié)而得,這個(gè)過程就很容易造成對(duì)有效特征的忽視以及模型設(shè)計(jì)上的不合理,因此基于這種傳統(tǒng)機(jī)器學(xué)習(xí)算法的情感分析任務(wù)在IMDB Movie Reviews【3】集合上的準(zhǔn)確率一般很難超過92%(如斯坦福大學(xué)的工作Baselines and Bigrams: Simple, Good Sentiment and Topic Classification【4】,通過使用樸素貝葉斯的方法在IMDB Movie Reviews數(shù)據(jù)集上也僅達(dá)到了91.22%的準(zhǔn)確率)??梢钥吹皆跈C(jī)器學(xué)習(xí)技術(shù)的初期,整個(gè)系統(tǒng)尚且處于對(duì)“人工”高度依賴的時(shí)代。

深度學(xué)習(xí)

隨著深度學(xué)習(xí)技術(shù)的廣泛普及,人們開始嘗試將提取特征的過程交由模型來自動(dòng)完成,通過數(shù)據(jù)驅(qū)動(dòng)的方式減少傳統(tǒng)方法中特征遺漏的問題。比如說對(duì)于圖像處理任務(wù)而言,我們無需根據(jù)人工經(jīng)驗(yàn)對(duì)圖像中的局部特征進(jìn)行設(shè)計(jì),只需要直接將畫面完整地送入模型中進(jìn)行訓(xùn)練即可。

下圖中為人臉識(shí)別任務(wù)中不同層的神經(jīng)網(wǎng)絡(luò)對(duì)圖像信息的抽取,我們可以看到在學(xué)習(xí)過程中底層網(wǎng)絡(luò)主要是對(duì)圖像中局部紋理進(jìn)行捕捉,而隨著層數(shù)的遞增,模型開始根據(jù)下層中收集到的紋理信息對(duì)人臉中的局部結(jié)構(gòu)(如眼睛、耳朵等)進(jìn)行建模,而頂層將綜合上述局部特征對(duì)人臉在圖像中的位置進(jìn)行確定,最終達(dá)成人臉識(shí)別的目的。

人臉識(shí)別任務(wù)中不同層對(duì)圖像信息的提取差異

此外,對(duì)于前文提到的情感分析任務(wù)而言,同樣是可以使用深度學(xué)習(xí)的方式對(duì)語言進(jìn)行建模。相對(duì)基于傳統(tǒng)機(jī)器學(xué)習(xí)算法的模型而言,深度學(xué)習(xí)的方式直接接收文本的輸入,將詞匯以高維向量的方式建模為詞嵌入(word embedding)。這種方法利用高維空間對(duì)詞匯中語義信息進(jìn)行捕獲,從而為下一步的情感分析提供了非常充足的信息。

基于深度學(xué)習(xí)的情感分析模型在IMDB Movie Reviews數(shù)據(jù)集上遠(yuǎn)遠(yuǎn)超越了傳統(tǒng)的機(jī)器學(xué)習(xí)方法,在卡內(nèi)基梅隆大學(xué)與谷歌團(tuán)隊(duì)在NIPS 2019上合作發(fā)表的論文XLNet: Generalized Autoregressive Pretraining for Language Understanding【5】中,準(zhǔn)確率達(dá)到了96.8%。

從上述例子中可以看到,深度學(xué)習(xí)技術(shù)在如今的機(jī)器學(xué)習(xí)領(lǐng)域已然達(dá)成諸多優(yōu)異成績,其中非常重要的一個(gè)貢獻(xiàn)在于通過使用自動(dòng)提取的方式對(duì)初始輸入信息中的有效資訊進(jìn)行捕獲,大幅度降低了手動(dòng)設(shè)計(jì)特征所帶來的信息折損,為下游任務(wù)提供了更堅(jiān)實(shí)的基礎(chǔ)。

深度學(xué)習(xí)&網(wǎng)絡(luò)結(jié)構(gòu)搜索

深度學(xué)習(xí)技術(shù)的到來使得原本由人工進(jìn)行的特征提取過程交由機(jī)器自動(dòng)完成,允許模型根據(jù)自身需求從原始數(shù)據(jù)中進(jìn)行特征的捕獲,通過這種數(shù)據(jù)驅(qū)動(dòng)的方式有效降低了人工抽取所帶來的信息丟失風(fēng)險(xiǎn)。但當(dāng)我們回顧整個(gè)深度學(xué)習(xí)系統(tǒng),實(shí)際上其依舊并非我們期望的完全自動(dòng)化的過程,在模型結(jié)構(gòu)的設(shè)計(jì)上仍然非常依賴行業(yè)專家面向任務(wù)對(duì)模型結(jié)構(gòu)進(jìn)行設(shè)計(jì)。

以機(jī)器翻譯任務(wù)為例,研究人員在模型結(jié)構(gòu)上的探索腳步從未停止,從最初基于RNN【6】對(duì)文本序列進(jìn)行表示發(fā)展到之后注意力機(jī)制【7】的引入,乃至更近一段時(shí)間的基于CNN【8】的翻譯系統(tǒng)以及目前備受關(guān)注的Transformer【9】系統(tǒng),科研人員始終在不斷地針對(duì)任務(wù)進(jìn)行模型結(jié)構(gòu)的設(shè)計(jì)與改良。但有了深度學(xué)習(xí)初期的發(fā)展,研究人員也期望著有朝一日能夠讓模型結(jié)構(gòu)設(shè)計(jì)的過程同樣不再過分依賴人工設(shè)計(jì),能夠采用同特征選擇類似的方式自動(dòng)進(jìn)行學(xué)習(xí),因此在深度學(xué)習(xí)方法的基礎(chǔ)上,人們開始嘗試網(wǎng)絡(luò)結(jié)構(gòu)搜索的方式來自動(dòng)得到模型結(jié)構(gòu)。

實(shí)際上網(wǎng)絡(luò)結(jié)構(gòu)搜索的任務(wù)并非起源于近些年,早在上世紀(jì)80年代,斯坦福大學(xué)的Miller, Geoffrey F.等人在Designing Neural Networks using Genetic Algorithms【10】論文中就提出使用進(jìn)化算法對(duì)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行學(xué)習(xí)的方式,在此之后也有很多研究人員沿著該思路進(jìn)行了相關(guān)的探索(如Representation and evolution of neural networks【11】一文對(duì)進(jìn)化算法的編碼格式進(jìn)行改良,J. R. Koza等人在Genetic generation of both the weights and architecture for a neural network【12】中提出要同時(shí)對(duì)網(wǎng)絡(luò)中的結(jié)構(gòu)和參數(shù)進(jìn)行學(xué)習(xí)等)。

但受限于當(dāng)時(shí)計(jì)算資源,針對(duì)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)搜索的應(yīng)用場景較少,因此這方面的工作并沒有受到很多研究者的關(guān)注。而隨著近些年來神經(jīng)網(wǎng)絡(luò)以及深度學(xué)習(xí)的技術(shù)的廣泛應(yīng)用,對(duì)于網(wǎng)絡(luò)結(jié)構(gòu)自學(xué)習(xí)的需求也越來越大,與此同時(shí)發(fā)展迅猛的半導(dǎo)體技術(shù)也使得設(shè)備的算力、存儲(chǔ)能力大大提升,為網(wǎng)絡(luò)結(jié)構(gòu)搜索任務(wù)提供了必要的支持。

縱觀整個(gè)機(jī)器學(xué)習(xí)算法的發(fā)展過程,網(wǎng)絡(luò)結(jié)構(gòu)搜索任務(wù)的出現(xiàn)可以看作是歷史的必然。無論是數(shù)據(jù)資源的累積還是計(jì)算能力的提升,無一不在催生著數(shù)據(jù)驅(qū)動(dòng)下的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)。雖然目前的網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)尚且處于比較初級(jí)的階段,其高資源消耗、模型結(jié)構(gòu)不穩(wěn)定等問題始終困擾著研究人員,但是其發(fā)展勢頭迅猛,在圖像、自然語言處理等領(lǐng)域均開始嶄露頭角。

可以預(yù)見的是,深度學(xué)習(xí)&網(wǎng)絡(luò)結(jié)構(gòu)搜索的組合將是把研究人員從模型工程的泥淖中救起的稻草,我們也相信網(wǎng)絡(luò)結(jié)構(gòu)搜索技術(shù)會(huì)終將為機(jī)器學(xué)習(xí)完成這場從“人工”到“自動(dòng)”的終局突圍。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    龍芯中科與心系列模型開展深度技術(shù)合作

    ”解決方案。 強(qiáng)強(qiáng)聯(lián)合!自主架構(gòu)賦能大模型訓(xùn)練 心大模型 心4.5系列模型均使用飛槳深度學(xué)習(xí)
    的頭像 發(fā)表于 07-02 16:53 ?677次閱讀

    LD Gen2 Lite激光雷達(dá):賦予機(jī)器人 “感知力” 的關(guān)鍵

    機(jī)器人的感知世界里,激光雷達(dá)宛如雙敏銳的“慧眼”,賦予機(jī)器人“看”清周圍環(huán)境、自主決策的能力
    的頭像 發(fā)表于 04-25 10:42 ?209次閱讀

    百度發(fā)布心大模型4.5和文心大模型X1

    心大模型4.5是百度自主研發(fā)的新代原生多模態(tài)基礎(chǔ)大模型,通過多個(gè)模態(tài)聯(lián)合建模實(shí)現(xiàn)協(xié)同優(yōu)化,多模態(tài)理解
    的頭像 發(fā)表于 03-18 16:29 ?475次閱讀

    百度搜索心智能體平臺(tái)接入DeepSeek及心大模型深度搜索

    夠免費(fèi)使用DeepSeek和文心大模型的深度搜索功能。這功能不僅融合了先進(jìn)的搜索算法,還借助心大模型
    的頭像 發(fā)表于 02-17 09:14 ?625次閱讀

    百度心大模型4月1日起全面免費(fèi)開放

    列最新的模型功能。 百度表示,心大模型的此次升級(jí)不僅帶來了更加豐富的功能,還致力于提升用戶體驗(yàn)。與此同時(shí),百度還透露,言將同步上線深
    的頭像 發(fā)表于 02-14 09:19 ?468次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    次生成深度信息。 自主機(jī)器人定位任務(wù)的本質(zhì)是對(duì)機(jī)器人自身狀態(tài)的估計(jì)問題,包括位置,朝向,速度等問題。 路徑規(guī)劃旨在找到從起點(diǎn)到目標(biāo)區(qū)域的路徑,確保路徑的可行性和最優(yōu)性。路徑規(guī)劃方法包括變分方法,圖搜
    發(fā)表于 01-04 19:22

    說清楚什么是AI大模型

    生成能力強(qiáng),部分版本支持多模態(tài)輸入(如圖像理解) 言 百度 針對(duì)中文優(yōu)化,適合國內(nèi)應(yīng)用場景 LLa
    的頭像 發(fā)表于 01-02 09:53 ?1689次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>說清楚什么是AI大<b class='flag-5'>模型</b>

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    。 多模態(tài)融合的創(chuàng)新與突破 機(jī)器人控制技術(shù)的另個(gè)重要突破在于多模態(tài)大模型的應(yīng)用。相比于僅通過文字進(jìn)行人機(jī)交互的傳統(tǒng)方法,現(xiàn)代機(jī)器人能夠融合視覺、聲音、定位等多模態(tài)輸入信息,為任務(wù)執(zhí)行
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.初步理解具身智能

    與未來,涵蓋如基于行為的人工智能、生物啟發(fā)的進(jìn)化人工智能及認(rèn)知機(jī)器人技術(shù)的發(fā)展。這歷史背景為隨后的大模型驅(qū)動(dòng)的具身智能討論奠定了基礎(chǔ),隨著人工智能模型復(fù)雜性和
    發(fā)表于 12-28 21:12

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.全書概覽與第章學(xué)習(xí)

    ,特別是在模型訓(xùn)練的時(shí)候,高質(zhì)量、大規(guī)模且多樣化的模型才能夠訓(xùn)練出來個(gè)好的網(wǎng)絡(luò)。針對(duì)具身智能機(jī)器人也是如此,如自主導(dǎo)航
    發(fā)表于 12-27 14:50

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    設(shè)計(jì)專門的編碼器處理視覺、觸覺、位置等不同類型的傳感器數(shù)據(jù),再用cross-attention機(jī)制將它們對(duì)齊到同語義空間。這種設(shè)計(jì)不僅提高了模型的感知能力,還增強(qiáng)了推理過程的可解釋性。在實(shí)驗(yàn)中,RT-1
    發(fā)表于 12-24 15:03

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬億的參
    的頭像 發(fā)表于 10-23 15:01 ?2562次閱讀

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書概覽與時(shí)間序列概述

    的,書籍封面如下。下面對(duì)全書概覽并對(duì)第章時(shí)間序列概述進(jìn)行細(xì)度。 . 全書概覽 全書分為8章,每章的簡介如下: ●第1章“時(shí)間序列概述”:介紹時(shí)間序列分析的基礎(chǔ)知識(shí)、發(fā)展歷程、應(yīng)
    發(fā)表于 08-07 23:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    今天開始學(xué)習(xí)《大語言模型應(yīng)用指南》第篇——基礎(chǔ)篇,對(duì)于人工智能相關(guān)專業(yè)技術(shù)人員應(yīng)該可以輕松加愉快的完成此篇閱讀,但對(duì)于我還是有許多的知識(shí)點(diǎn)、專業(yè)術(shù)語比較陌生,需要網(wǎng)上搜索學(xué)習(xí)更多的資料才能理解書中
    發(fā)表于 07-25 14:33

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書

    上周收到《大語言模型應(yīng)用指南》書,非常高興,但工作項(xiàng)目繁忙,今天才品鑒體驗(yàn),感謝作者編寫了部內(nèi)容豐富、理論應(yīng)用相結(jié)合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了個(gè)讓我了解大語言
    發(fā)表于 07-21 13:35