一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)的長期發(fā)展仍在繼續(xù)

笑盡往事 ? 2023-01-05 09:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法的昨天、今天和明天

2016年,人工智能軟件包AlphaGo擊敗韓國圍棋大師李世石。圍棋是一種兩人抽象戰(zhàn)略棋盤游戲,其目標(biāo)是用棋子包圍比對(duì)手更多的領(lǐng)土。2017年,經(jīng)過改進(jìn)的新版AlphaGo(AlphaGo Master)擊敗了世界圍棋第一人柯潔。這種新穎的人工智能 (AI) 系統(tǒng)并沒有依靠先前建立的策略來擊敗人類對(duì)手,而是在某些特定領(lǐng)域似乎超越了人類的認(rèn)知,甚至表現(xiàn)出了一定的思考能力,有效地縮小了當(dāng)前技術(shù)水平與現(xiàn)有技術(shù)之間的差距。流行文化想象人工智能可以。

過去,人工智能一直像是遙遠(yuǎn)的科幻小說。但當(dāng)今世界很多技術(shù)的應(yīng)用已經(jīng)達(dá)到了堪稱人工智能的水平。除了前面提到的圍棋軟件外,最近還部署了一系列人工智能系統(tǒng)并取得了巨大的效果,包括自動(dòng)駕駛系統(tǒng)、智能管家,甚至還有蘋果智能手機(jī)捆綁的語音助手 Siri。這些應(yīng)用背后的核心算法是深度學(xué)習(xí),它是機(jī)器學(xué)習(xí)最熱門的分支之一。與其他機(jī)器學(xué)習(xí)算法不同,深度學(xué)習(xí)依賴于對(duì)大量數(shù)據(jù)進(jìn)行迭代訓(xùn)練來發(fā)現(xiàn)數(shù)據(jù)的特征并提供相應(yīng)的結(jié)果。其中許多特征已經(jīng)超越了人類定義特征的表達(dá)能力,

然而,深度學(xué)習(xí)尚未在所有方面超越人類。相反,它完全取決于人類對(duì)所使用算法的設(shè)計(jì)決策。深度學(xué)習(xí)從誕生到結(jié)出我們今天看到的果實(shí),大約用了 50 年的時(shí)間。它的發(fā)展歷史讓我們得以一窺計(jì)算機(jī)科學(xué)家一絲不茍的獨(dú)創(chuàng)性,并提供了一個(gè)機(jī)會(huì)來討論這個(gè)令人興奮的領(lǐng)域的發(fā)展方向。

什么是深度學(xué)習(xí)?

深度學(xué)習(xí)利用所謂的人工神經(jīng)網(wǎng)絡(luò) (ANN)。盡管神經(jīng)網(wǎng)絡(luò)算法的名稱來源于它們模擬動(dòng)物神經(jīng)元如何傳輸信息的事實(shí),但深度學(xué)習(xí)一詞來自所涉及的多層級(jí)聯(lián)神經(jīng)元——允許在信息傳輸中實(shí)現(xiàn)深度的多個(gè)層.

在動(dòng)物中,神經(jīng)的一端連接到受體,另一端連接到動(dòng)物的皮層,信號(hào)通過中間的多層神經(jīng)元傳導(dǎo)。神經(jīng)元實(shí)際上并不是一對(duì)一連接的,而是有多個(gè)連接(如輻射連接和收斂連接),從而形成網(wǎng)絡(luò)結(jié)構(gòu)。這種豐富的結(jié)構(gòu)最終使得信息的提取和動(dòng)物大腦中相應(yīng)認(rèn)知的產(chǎn)生成為可能。動(dòng)物的學(xué)習(xí)過程需要在大腦中整合外部信息。外部信息進(jìn)入神經(jīng)系統(tǒng),神經(jīng)系統(tǒng)又變成大腦皮層可以接收的信號(hào)。將信號(hào)與大腦中的現(xiàn)有信息進(jìn)行比較,從而可以建立完整的認(rèn)知。

同樣,使用計(jì)算機(jī)編程技術(shù),計(jì)算機(jī)科學(xué)家允許包含某些參數(shù)和權(quán)重的函數(shù)層來模擬神經(jīng)元的內(nèi)部操作,使用非線性操作的疊加來模擬神經(jīng)元之間的連接,并最終重新整合信息以產(chǎn)生分類或預(yù)測(cè)結(jié)果作為輸出。為了處理神經(jīng)網(wǎng)絡(luò)輸出與真實(shí)世界結(jié)果之間的差異,神經(jīng)網(wǎng)絡(luò)通過梯度逐層調(diào)整相應(yīng)的權(quán)重以減少差異,從而實(shí)現(xiàn)深度學(xué)習(xí)。

深度學(xué)習(xí)的起源

令人驚訝的是,模擬動(dòng)物的神經(jīng)活動(dòng)并不是深度學(xué)習(xí)的專有領(lǐng)域。早在 1957 年,F(xiàn)rank Rosenblatt 就提出了感知器的概念。感知器實(shí)際上是一個(gè)單層神經(jīng)網(wǎng)絡(luò),只能區(qū)分兩種類型的結(jié)果。該模型非常簡(jiǎn)單,輸出和輸入信息之間的關(guān)系本質(zhì)上是一個(gè)加權(quán)和。雖然權(quán)重直接根據(jù)輸出與真實(shí)值的差自動(dòng)調(diào)整,但整個(gè)系統(tǒng)的學(xué)習(xí)能力有限,只能用于簡(jiǎn)單的數(shù)據(jù)擬合。

幾乎與此同時(shí),神經(jīng)科學(xué)也出現(xiàn)了重大進(jìn)展。神經(jīng)科學(xué)家 David Hubel 和 Torsten Wiesel 對(duì)貓的視覺神經(jīng)系統(tǒng)進(jìn)行的研究證實(shí),大腦皮層對(duì)視覺特征的反應(yīng)是由不同的細(xì)胞完成的。在他們的模型中,簡(jiǎn)單細(xì)胞感知光信息,而復(fù)雜細(xì)胞感知運(yùn)動(dòng)信息。

受此啟發(fā),日本學(xué)者福島邦彥于1980年提出新認(rèn)知網(wǎng)絡(luò)模型來識(shí)別手寫數(shù)字(圖1)。該網(wǎng)絡(luò)分為多層,每一層由一種神經(jīng)元組成。在網(wǎng)絡(luò)中,兩種類型的神經(jīng)元被用來交替提取和組合圖形信息。這兩種類型的神經(jīng)元后來演變成卷積層和提取層,它們?nèi)匀环浅V匾?。然而,這個(gè)網(wǎng)絡(luò)中存在的神經(jīng)元是人工設(shè)計(jì)的,它們不會(huì)自動(dòng)適應(yīng)呈現(xiàn)的結(jié)果,因此它們不具備學(xué)習(xí)能力,并且僅限于識(shí)別一小組簡(jiǎn)單數(shù)字的基本任務(wù)。

poYBAGO07biAabXUAACtaPmc-Uc165.png

數(shù)字。1:neocognitron 機(jī)器的工作機(jī)制(來源:Fukushima,Kunihiko。“Neocognitron:一種能夠進(jìn)行視覺模式識(shí)別的分層神經(jīng)網(wǎng)絡(luò)。”Neural Networks 1.2(1988):119-130)

當(dāng)無法實(shí)現(xiàn)學(xué)習(xí)能力時(shí),需要額外的手動(dòng)設(shè)計(jì)來代替真正的自學(xué)習(xí)網(wǎng)絡(luò)。1982年,美國科學(xué)家約翰霍普菲爾德發(fā)明了一種神經(jīng)網(wǎng)絡(luò),它有幾個(gè)限制,可以在變化中保持記憶,從而促進(jìn)學(xué)習(xí)。同年,芬蘭科學(xué)家 Teuvo Kohonen 提出了一種基于無監(jiān)督算法向量量化神經(jīng)網(wǎng)絡(luò)(學(xué)習(xí)向量量化網(wǎng)絡(luò))的自組織映射,希望通過縮短輸入和輸出之間的歐氏距離,從復(fù)雜網(wǎng)絡(luò)中學(xué)習(xí)正確的關(guān)系。1987年,美國科學(xué)家Stephen Grossberg和Gail Carpenter在早期理論的基礎(chǔ)上提出了自適應(yīng)共振理論網(wǎng)絡(luò)。他們讓已知信息和未知信息產(chǎn)生共鳴,從已知信息推斷未知信息,實(shí)現(xiàn)類比學(xué)習(xí)。盡管這些網(wǎng)絡(luò)被附加了自組織、自適應(yīng)和記憶等關(guān)鍵詞,但相應(yīng)的學(xué)習(xí)方法并不高效。它需要基于應(yīng)用本身不斷優(yōu)化設(shè)計(jì),再加上網(wǎng)絡(luò)內(nèi)存容量小,難以在實(shí)踐中應(yīng)用。

直到 1986 年計(jì)算機(jī)科學(xué)家 David Rumelhart、Geoffrey Hinton 和 Ronald Williams 發(fā)表了反向傳播算法,才逐漸解決神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)問題。神經(jīng)網(wǎng)絡(luò)的輸出與真實(shí)值之間的差異現(xiàn)在可以通過與梯度相關(guān)的鏈?zhǔn)椒▌t反饋到每一層的權(quán)重中,從而有效地允許每一層函數(shù)以與感知機(jī)相同的方式進(jìn)行訓(xùn)練。這是 Geoffrey Hinton 在該領(lǐng)域的第一個(gè)里程碑。如今,他是谷歌的一名工程研究員,并且是圖靈獎(jiǎng)的獲得者,這是計(jì)算機(jī)科學(xué)領(lǐng)域的最高榮譽(yù)。

“我們不想建立一個(gè)模型來模擬大腦的工作方式,”欣頓說?!拔覀儠?huì)觀察大腦,同時(shí)認(rèn)為,既然大腦是一個(gè)可行的模型,我們應(yīng)該看看如果我們想創(chuàng)建其他一些可行的模型,大腦會(huì)提供靈感。反向傳播算法模擬的正是大腦的反饋機(jī)制?!?/p>

此后在 1994 年,Geoffrey Hinton 小組的博士后計(jì)算機(jī)科學(xué)家 Yann LeCun 結(jié)合神經(jīng)認(rèn)知機(jī)制和反向傳播算法創(chuàng)建了 LeNet,這是一種用于識(shí)別手寫郵政編碼的卷積神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)了 99% 的自動(dòng)識(shí)別,并且能夠處理幾乎任何形式的手寫。該算法取得了巨大成功,并被美國郵政系統(tǒng)投入使用。

深度學(xué)習(xí)時(shí)代來臨

盡管取得了上述成就,但深度學(xué)習(xí)直到后來的某個(gè)時(shí)候才獲得顯著的普及。一個(gè)原因是神經(jīng)網(wǎng)絡(luò)需要更新大量參數(shù)(僅 2012 年提出的 AlexNet 就有 65 萬個(gè)神經(jīng)元和 6000 萬個(gè)參數(shù)),并且需要強(qiáng)大的數(shù)據(jù)處理和計(jì)算能力(圖 2 )). 此外,試圖通過減少網(wǎng)絡(luò)中的層數(shù)來減少數(shù)據(jù)量和訓(xùn)練時(shí)間會(huì)使深度學(xué)習(xí)不如其他機(jī)器學(xué)習(xí)方法(例如在 2000 年左右變得非常流行的支持向量機(jī))有效。Geoffrey Hinton 在 2006 年的另一篇論文首次使用深度信念網(wǎng)絡(luò)這個(gè)名稱,其中 Hinton 提供了一種優(yōu)化整個(gè)神經(jīng)網(wǎng)絡(luò)的方法。雖然這為深度學(xué)習(xí)的日后流行奠定了基礎(chǔ),但之所以使用深度網(wǎng)絡(luò)而不是之前的神經(jīng)網(wǎng)絡(luò)綽號(hào),是因?yàn)橹髁餮芯科诳瘜?duì)神經(jīng)網(wǎng)絡(luò)這個(gè)詞持反感態(tài)度,甚至看到論文就拒絕投稿。某些論文標(biāo)題中使用的詞。

深度學(xué)習(xí)的重大轉(zhuǎn)折發(fā)生在 2012 年。計(jì)算機(jī)視覺領(lǐng)域的科學(xué)家開始意識(shí)到數(shù)據(jù)大小的重要性。2010 年,斯坦福大學(xué)計(jì)算機(jī)科學(xué)副教授李飛飛發(fā)布了 ImageNet,這是一個(gè)圖像數(shù)據(jù)庫,包含數(shù)千萬張手動(dòng)標(biāo)記的圖像,屬于 1000 個(gè)類別,包括動(dòng)物、植物、日常生活等領(lǐng)域。從 2010 年到 2017 年,計(jì)算機(jī)視覺專家根據(jù)這些圖像舉辦年度分類競(jìng)賽,ImageNet 已成為全球視覺研究中機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法的試金石。2012 年,多倫多大學(xué) Geoffrey Hinton 的一名學(xué)生 Alex Krizhevsky 通過在兩塊 NVIDIA 顯卡 (GPU) 上編寫神經(jīng)網(wǎng)絡(luò)算法贏得了 ImageNet 分類競(jìng)賽,他的算法大大超過了第二名參賽者的識(shí)別率。該網(wǎng)絡(luò)隨后被命名為 AlexNet。這是深度學(xué)習(xí)快速崛起的開始。

poYBAGO1F2qAIcrfAACPo6mm5oU316.png

圖 2:AlexNet 的網(wǎng)絡(luò)結(jié)構(gòu)(來源:Krizhevsky、Alex、Ilya Sutskever 和 Geoffrey E. Hinton,“Imagenet classification with deep convolutional neural networks”,Advances in Neural Information Processing Systems,2012。)

從 AlexNet 開始,到 ImageNet 的數(shù)據(jù)支持和商用顯卡的計(jì)算支持,神經(jīng)網(wǎng)絡(luò)架構(gòu)研究逐漸爆發(fā)。首先,由于發(fā)布了多個(gè)軟件包(例如 Caffe、TensorFlow 和 Torch),實(shí)施深度學(xué)習(xí)變得更加容易。其次,ImageNet 分類競(jìng)賽和 COCO 競(jìng)賽的后續(xù)迭代,其中給定的任務(wù)涉及更復(fù)雜的圖像分割和描述,產(chǎn)生了 VGGNet、GoogLeNet、ResNet 和 DenseNet。這些神經(jīng)網(wǎng)絡(luò)使用的層數(shù)逐漸增加,從AlexNet的11層和VGGNet的19層到ResNet的150層,甚至DenseNet的200層,從而實(shí)現(xiàn)了真正的深度學(xué)習(xí)。在某些關(guān)于分類問題的數(shù)據(jù)集上進(jìn)行測(cè)試時(shí),這些深度神經(jīng)網(wǎng)絡(luò)甚至超過了人類的識(shí)別精度(ImageNet 上的人類錯(cuò)誤率約為 5%,而 SENet 可以達(dá)到 2.25%)。這在下表1:

表 1:歷屆 ImageNet 圖像分類競(jìng)賽中表現(xiàn)最佳的網(wǎng)絡(luò)總結(jié)(來源:作者根據(jù)https://github.com/sovrasov/flops-counter.pytorch的原始論文計(jì)算得出)。

網(wǎng)絡(luò) 亞歷克斯網(wǎng) ZFNet VGG網(wǎng) 谷歌網(wǎng) ResNet ResNeXt SENet
Top 5 錯(cuò)誤率 15.32% 13.51% 7.32% 6.67% 3.57% 3.03% 2.25%
層數(shù) 8個(gè) 8個(gè) 16 22 152 152 154
參數(shù)個(gè)數(shù) 60M 60M 138M 7M 60M 44M 67M
2012 2013年 2014 2014 2015年 2016年 2017年

自這一突破以來,計(jì)算機(jī)科學(xué)家越來越多地使用神經(jīng)網(wǎng)絡(luò)算法來解決問題。除了上述在二維圖像的分類、分割和檢測(cè)中的應(yīng)用,神經(jīng)網(wǎng)絡(luò)還在時(shí)間信號(hào)領(lǐng)域甚至無監(jiān)督機(jī)器學(xué)習(xí)中得到應(yīng)用。循環(huán)神經(jīng)網(wǎng)絡(luò) (RN) 可以按時(shí)間順序接收信號(hào)輸入。網(wǎng)絡(luò)的每一層神經(jīng)元都可以壓縮和存儲(chǔ)記憶,而網(wǎng)絡(luò)本身可以從記憶中提取有效維度來進(jìn)行語音識(shí)別和文本理解。當(dāng)神經(jīng)網(wǎng)絡(luò)用于無監(jiān)督學(xué)習(xí)時(shí),不是提取主成分或提取特征值,只需使用包含多層網(wǎng)絡(luò)的自動(dòng)編碼器,即可自動(dòng)縮小和提取原始信息。將上述與矢量量化網(wǎng)絡(luò)相結(jié)合,可以在不大量使用標(biāo)記數(shù)據(jù)的情況下對(duì)特征進(jìn)行聚類并獲得分類結(jié)果?,F(xiàn)在毫無疑問,無論是在有效性還是在應(yīng)用范圍方面,神經(jīng)網(wǎng)絡(luò)都已成為無可爭(zhēng)議的王者。

深度學(xué)習(xí):最新技術(shù)和未來趨勢(shì)

2017 年,ImageNet 圖像分類大賽宣布完成決賽。但這并沒有預(yù)示著深度學(xué)習(xí)的終結(jié)。相反,研究和深度學(xué)習(xí)應(yīng)用已經(jīng)有效地超越了之前的分類問題階段,進(jìn)入了廣泛發(fā)展的第二階段。與此同時(shí),深度學(xué)習(xí)相關(guān)國際會(huì)議論文投稿數(shù)量逐年呈指數(shù)級(jí)增長,表明越來越多的研究人員和工程師正在致力于深度學(xué)習(xí)算法的開發(fā)和應(yīng)用。未來幾年,深度學(xué)習(xí)的發(fā)展將主要順應(yīng)以下幾個(gè)趨勢(shì)。

首先,從結(jié)構(gòu)上講,使用的神經(jīng)網(wǎng)絡(luò)類型會(huì)更加多樣化。生成對(duì)抗網(wǎng)絡(luò) (GANs) 可以執(zhí)行卷積神經(jīng)網(wǎng)絡(luò)的逆過程,自 2016 年首次提出以來發(fā)展迅速,已成為深度學(xué)習(xí)的重要增長領(lǐng)域。因?yàn)樯疃葘W(xué)習(xí)算法可以從原始信息(比如圖像)中提取特征,那么逆過程在邏輯上應(yīng)該是可行的。換句話說,應(yīng)該可以使用雜亂的信號(hào)通過特定的神經(jīng)網(wǎng)絡(luò)生成相應(yīng)的圖像。正是基于這種洞察力,計(jì)算機(jī)科學(xué)家 Ian Goodfellow 提出了生成對(duì)抗網(wǎng)絡(luò)的概念。除了生成圖像的生成器之外,這種類型的網(wǎng)絡(luò)還提供鑒別器。在訓(xùn)練過程中,生成器傾向于掌握生成的圖片,這些圖片與真實(shí)圖片極其接近,而計(jì)算機(jī)很難區(qū)分。相比之下,鑒別器傾向于掌握區(qū)分真實(shí)圖片和生成圖片的魯棒能力。隨著兩者相互學(xué)習(xí),生成的圖像越逼真,鑒別器就越難鑒別。相反,鑒別器的能力越大,生成器就越有動(dòng)力生成新的、更逼真的圖像。生成對(duì)抗網(wǎng)絡(luò)有著廣泛的應(yīng)用,從人臉生成和識(shí)別到圖像分辨率提升、視頻幀率提升、圖像風(fēng)格遷移等領(lǐng)域。

其次,此類網(wǎng)絡(luò)涉及的研究問題往往更加多樣化。一方面,在機(jī)器學(xué)習(xí)的其他分支中發(fā)現(xiàn)的一些概念,例如強(qiáng)化學(xué)習(xí)和遷移學(xué)習(xí),在深度學(xué)習(xí)中找到了新的位置。另一方面,深度學(xué)習(xí)的研究已經(jīng)從工程試錯(cuò)發(fā)展到理論推導(dǎo)。深度學(xué)習(xí)因缺乏理論支撐而受到批評(píng),在訓(xùn)練過程中幾乎完全依賴數(shù)據(jù)科學(xué)家的經(jīng)驗(yàn)。為了減少經(jīng)驗(yàn)對(duì)結(jié)果的影響,減少選擇超參數(shù)的時(shí)間,研究人員除了對(duì)最初的經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行修改外,還在從根本上修正深度學(xué)習(xí)的效率。一些研究人員正試圖將其他機(jī)器學(xué)習(xí)方法(如壓縮感知和貝葉斯理論)聯(lián)系起來,以促進(jìn)深度學(xué)習(xí)從工程試錯(cuò)到理論指導(dǎo)實(shí)踐的轉(zhuǎn)變。也有人努力解釋深度學(xué)習(xí)算法的有效性,而不是僅僅將整個(gè)網(wǎng)絡(luò)視為黑匣子。與此同時(shí),研究人員一直忙于為超參數(shù)主題建立另一套機(jī)器學(xué)習(xí)問題,稱為元學(xué)習(xí),試圖降低超參數(shù)選擇過程的難度和隨機(jī)性。也有人努力解釋深度學(xué)習(xí)算法的有效性,而不是僅僅將整個(gè)網(wǎng)絡(luò)視為黑匣子。與此同時(shí),研究人員一直忙于為超參數(shù)主題建立另一套機(jī)器學(xué)習(xí)問題,稱為元學(xué)習(xí),試圖降低超參數(shù)選擇過程的難度和隨機(jī)性。也有人努力解釋深度學(xué)習(xí)算法的有效性,而不是僅僅將整個(gè)網(wǎng)絡(luò)視為黑匣子。與此同時(shí),研究人員一直忙于為超參數(shù)主題建立另一套機(jī)器學(xué)習(xí)問題,稱為元學(xué)習(xí),試圖降低超參數(shù)選擇過程的難度和隨機(jī)性。

第三,由于最近大量注入新的研究成果,更多的算法正在商業(yè)產(chǎn)品中使用。除了幾家開發(fā)圖像生成小程序的小公司外,大公司也在深度學(xué)習(xí)領(lǐng)域爭(zhēng)奪地盤。互聯(lián)網(wǎng)巨頭谷歌、Facebook、微軟都設(shè)立了深度學(xué)習(xí)開發(fā)中心。他們的中國同行百度、阿里巴巴、騰訊、京東和字節(jié)跳動(dòng)也各自建立了自己的深度學(xué)習(xí)研究中心。DeepMind、商湯科技、曠視科技等幾家扎根于深度學(xué)習(xí)技術(shù)的獨(dú)角獸公司,也在眾多競(jìng)爭(zhēng)者中脫穎而出。2019年以來,行業(yè)相關(guān)的深度學(xué)習(xí)研究逐漸從發(fā)表論文轉(zhuǎn)向落地項(xiàng)目。比如騰訊AI Lab優(yōu)化了視頻播放,

第四,隨著5G技術(shù)的逐步普及,深度學(xué)習(xí)將與云計(jì)算一起走進(jìn)日常生活。由于缺乏計(jì)算資源,深度學(xué)習(xí)是一項(xiàng)普遍難以落地的技術(shù)。一臺(tái)帶有 GPU 的超級(jí)計(jì)算機(jī)的成本可能高達(dá) 3,411,900 美元(美元)或 500,000 日元(人民幣),而且并非所有公司都有資金和人才來充分利用此類設(shè)備。然而,隨著 5G 技術(shù)的普及和云計(jì)算的可用性,企業(yè)現(xiàn)在可以通過租用直接從云端獲取計(jì)算資源,而且成本低廉。公司可以將數(shù)據(jù)上傳到云端,并幾乎實(shí)時(shí)地從云端接收計(jì)算結(jié)果。許多新興的初創(chuàng)公司正在研究如何利用這一基礎(chǔ)設(shè)施,并組建了計(jì)算機(jī)科學(xué)家和數(shù)據(jù)科學(xué)家團(tuán)隊(duì),為其他公司提供深度學(xué)習(xí)算法支持和硬件支持。這使得以前與計(jì)算機(jī)技術(shù)關(guān)系不大的行業(yè)(例如制造、服務(wù)、娛樂,甚至法律行業(yè))中的公司不再需要定義他們的問題并開發(fā)他們的解決方案。相反,他們現(xiàn)在可以通過與算法公司合作,從計(jì)算機(jī)技術(shù)行業(yè)的專業(yè)知識(shí)中受益,這樣他們就可以通過深度學(xué)習(xí)獲得授權(quán)。這使得以前與計(jì)算機(jī)技術(shù)關(guān)系不大的行業(yè)(例如制造、服務(wù)、娛樂,甚至法律行業(yè))中的公司不再需要定義他們的問題并開發(fā)他們的解決方案。相反,他們現(xiàn)在可以通過與算法公司合作,從計(jì)算機(jī)技術(shù)行業(yè)的專業(yè)知識(shí)中受益,這樣他們就可以通過深度學(xué)習(xí)獲得授權(quán)。這使得以前與計(jì)算機(jī)技術(shù)關(guān)系不大的行業(yè)(例如制造、服務(wù)、娛樂,甚至法律行業(yè))中的公司不再需要定義他們的問題并開發(fā)他們的解決方案。相反,他們現(xiàn)在可以通過與算法公司合作,從計(jì)算機(jī)技術(shù)行業(yè)的專業(yè)知識(shí)中受益,這樣他們就可以通過深度學(xué)習(xí)獲得授權(quán)。

總結(jié)與討論

50 多年來,深度學(xué)習(xí)從原型到成熟,從簡(jiǎn)單到復(fù)雜。學(xué)術(shù)界和工業(yè)界積累了大量的理論和技術(shù)經(jīng)驗(yàn)?,F(xiàn)在的發(fā)展方向比以往任何時(shí)候都更加多元化。一方面是因?yàn)楹芏嘞鄳?yīng)的產(chǎn)品已經(jīng)進(jìn)入研發(fā)階段,另一方面是因?yàn)橛?jì)算機(jī)科學(xué)家正在對(duì)深度學(xué)習(xí)進(jìn)行更細(xì)致的研究。

當(dāng)然,作為一門綜合學(xué)科,深度學(xué)習(xí)除了在圖像識(shí)別領(lǐng)域的核心發(fā)展歷程之外,還在語音分析和自然語言處理領(lǐng)域取得了碩果。同時(shí),結(jié)合多種神經(jīng)網(wǎng)絡(luò)和多媒體格式正迅速成為研究的熱點(diǎn)領(lǐng)域。例如,結(jié)合圖像和語言處理的自動(dòng)圖像字幕是一個(gè)具有挑戰(zhàn)性的問題。

還應(yīng)該注意的是,深度學(xué)習(xí)并不是實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的唯一方法。一些現(xiàn)階段應(yīng)用不那么廣泛的網(wǎng)絡(luò)結(jié)構(gòu),如自適應(yīng)共振網(wǎng)絡(luò)、霍普菲爾德網(wǎng)絡(luò)和受限玻爾茲曼機(jī),也可能有一天會(huì)推動(dòng)整個(gè)行業(yè)進(jìn)一步發(fā)展??梢钥隙ǖ氖?,雖然深度學(xué)習(xí)目前似乎仍籠罩在難以捉摸的復(fù)雜和神秘光環(huán)中,但在不久的將來,這個(gè)科幻概念將成為許多大大小小的公司的基礎(chǔ)技術(shù)。

審核編輯黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何排除深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?的特定層?

    無法確定如何排除要在深度學(xué)習(xí)工作臺(tái)上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    SLAMTEC Aurora:把深度學(xué)習(xí)“卷”進(jìn)機(jī)器人日常

    在人工智能和機(jī)器人技術(shù)飛速發(fā)展的今天,深度學(xué)習(xí)與SLAM(同步定位與地圖構(gòu)建)技術(shù)的結(jié)合,正引領(lǐng)著智能機(jī)器人行業(yè)邁向新的高度。最近科技圈頂流DeepSeek簡(jiǎn)直殺瘋了!靠著逆天的深度
    的頭像 發(fā)表于 02-19 15:49 ?460次閱讀

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響
    的頭像 發(fā)表于 02-14 11:15 ?539次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的定義與發(fā)展
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)在質(zhì)量控制中的應(yīng)用

    隨著科技的飛速發(fā)展,人工智能(AI)與深度學(xué)習(xí)技術(shù)正逐步滲透到各個(gè)行業(yè),特別是在自動(dòng)化生產(chǎn)中,其潛力與價(jià)值愈發(fā)凸顯。深度學(xué)習(xí)軟件不僅使人工和
    的頭像 發(fā)表于 01-17 16:35 ?699次閱讀
    AI自動(dòng)化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在質(zhì)量控制中的應(yīng)用

    GPU在深度學(xué)習(xí)中的應(yīng)用 GPUs在圖形設(shè)計(jì)中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)中扮演著至關(guān)重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?1629次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1919次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?659次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1382次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?1071次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運(yùn)算加速 項(xiàng)目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1235次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?617次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢(shì)就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來會(huì)怎樣發(fā)展,能走多遠(yuǎn),你怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1151次閱讀