一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深度學習-會開發(fā)AI的AI:超網(wǎng)絡有望讓深度學習大眾化

恬靜簡樸1 ? 來源:恬靜簡樸1 ? 作者:恬靜簡樸1 ? 2022-10-13 09:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

會開發(fā)AI的AI:超網(wǎng)絡有望讓深度學習大眾化

超網(wǎng)絡(hypernetwork)可以加快訓練AI的過程。

編者按:在執(zhí)行特定類型任務,如圖像識別、語音識別等方面,AI已經(jīng)可以與人類相媲美了,甚至有時候已經(jīng)超越了人類。但這些AI事先必須經(jīng)過訓練,而訓練是個既耗時又耗計算能力的過程,有上百萬甚至幾十億的參數(shù)需要優(yōu)化。但最近研究人員做出了能瞬時預測參數(shù)的超網(wǎng)絡。通過利用超網(wǎng)絡(hypernetwork),研究人員現(xiàn)在可以先下手為強,提前對人工神經(jīng)網(wǎng)絡進行調(diào)優(yōu),從而節(jié)省部分訓練時間和費用。文章來自編譯。譯者:boxi。

劃重點:

人工智能是一場數(shù)字游戲,訓練耗時耗力

超網(wǎng)絡可以在幾分之一秒內(nèi)預測出新網(wǎng)絡的參數(shù)

超網(wǎng)絡的表現(xiàn)往往可以跟數(shù)千次 SGD 迭代的結(jié)果不相上下,有時甚至是更好

超網(wǎng)絡有望讓深度學習大眾化

人工智能在很大程度上是一場數(shù)字游戲。10 年前,深度神經(jīng)網(wǎng)絡(一種學習識別數(shù)據(jù)模式的 AI 形式)之所以開始超越傳統(tǒng)算法,那是因為我們終于有了足夠的數(shù)據(jù)和處理能力,可以充分利用這種AI。

現(xiàn)如今的神經(jīng)網(wǎng)絡對數(shù)據(jù)和處理能力更加渴望。訓練它們需要對表征參數(shù)的值進行仔細的調(diào)整,那些參數(shù)代表人工神經(jīng)元之間連接的強度,有數(shù)百萬甚至數(shù)十億之巨。其目標是為它們找到接近理想的值,而這個過程叫做優(yōu)化,但訓練網(wǎng)絡達到這一點并不容易。 DeepMind研究科學家Petar Veli?kovi? 表示:“訓練可能需要數(shù)天、數(shù)周甚至數(shù)月之久”。

但這種情況可能很快就會改變。加拿大安大略省圭爾夫大學(University of Guelph)的Boris Knyazev和他的同事設計并訓練了一個“超網(wǎng)絡”——這有點像是凌駕于其他神經(jīng)網(wǎng)絡之上的最高統(tǒng)治者——用它可以加快訓練的過程。給定一個為特定任務設計,未經(jīng)訓練的新深度神經(jīng)網(wǎng)絡,超網(wǎng)絡可以在幾分之一秒內(nèi)預測出該新網(wǎng)絡的參數(shù),理論上可以讓訓練變得不必要。由于超網(wǎng)絡學習了深度神經(jīng)網(wǎng)絡設計當中極其復雜的模式,因此這項工作也可能具有更深層次的理論意義。

目前為止,超網(wǎng)絡在某些環(huán)境下的表現(xiàn)出奇的好,但仍有增長空間——考慮到問題的量級,這是很自然的。如果他們能解決這個問題,Veli?kovi?說:“這將對機器學習產(chǎn)生很大的影響?!?。

變成“超網(wǎng)絡”

目前,訓練和優(yōu)化深度神經(jīng)網(wǎng)絡最好的方法是隨機梯度下降(SGD) 技術(shù)的各種變種。訓練涉及到將網(wǎng)絡在給定任務(例如圖像識別)中所犯的錯誤最小化。 SGD 算法通過大量標記數(shù)據(jù)來調(diào)整網(wǎng)絡參數(shù),并減少錯誤或損失。梯度下降是從損失函數(shù)的高位值一級級向下降到某個最小值的迭代過程,代表的是足夠好的(或有時候甚至是可能的最好)參數(shù)值。

但是這種技術(shù)只有在你有需要優(yōu)化的網(wǎng)絡時才有效。為了搭建最開始的神經(jīng)網(wǎng)絡(一般由從輸入到輸出的多層人工神經(jīng)元組成),工程師必須依靠自己的直覺和經(jīng)驗法則。這些結(jié)構(gòu)在神經(jīng)元的層數(shù)、每層包含的神經(jīng)元數(shù)量等方面可能會有所不同。

pYYBAGNHajiAK8DyAAIZT-0JZkc571.jpg

梯度下降算法讓網(wǎng)絡沿著其“損失景觀”向下走,其中高位值表示較大錯誤或損失。算法旨在找到全局最小值,讓損失最小化。

理論上可以從多個結(jié)構(gòu)出發(fā),然后優(yōu)化每個結(jié)構(gòu)并選出最好的。但Google Brain 訪問學者 MengYe Ren 說:“訓練需要花費相當多的時間,要想訓練和測試每以個候選網(wǎng)絡結(jié)構(gòu)是不可能的。這種做法擴展不好,尤其是如果要考慮到數(shù)百萬種可能設計的話?!?/p>

于是 2018 年,Ren 與自己在多倫多大學的前同事 Chris Zhang ,以及他們的指導 Raquel Urtasun 開始嘗試一種不同的方法。他們設計出一種所謂的圖超網(wǎng)絡(Graph Hypernetwork, GHN),這種網(wǎng)絡可以在給出一組候選結(jié)構(gòu)的情況下,找出解決某個任務的最佳深度神經(jīng)網(wǎng)絡結(jié)構(gòu)。

顧名思義,“圖”指的是深度神經(jīng)網(wǎng)絡的架結(jié)構(gòu),可以認為是數(shù)學意義的圖——由線或邊連接的點或節(jié)點組成的集合。此處節(jié)點代表計算單元(通常是神經(jīng)網(wǎng)絡的一整層),邊代表的是這些單元互連的方式。

原理是這樣的。圖超網(wǎng)絡從任何需要優(yōu)化的結(jié)構(gòu)(稱其為候選結(jié)構(gòu))開始,然后盡最大努力預測候選結(jié)構(gòu)的理想?yún)?shù)。接著將實際神經(jīng)網(wǎng)絡的參數(shù)設置為預測值,用給定任務對其進行測試。Ren 的團隊證明,這種方法可用于來對候選結(jié)構(gòu)進行排名,并選擇表現(xiàn)最佳的結(jié)構(gòu)。

當 Knyazev 和他的同事想出圖超網(wǎng)絡這個想法時,他們意識到可以在此基礎上進一步開發(fā)。在他們的新論文里,這支團隊展示了 GHN 的用法,不僅可以用來從一組樣本中找到最佳的結(jié)構(gòu),還可以預測最好網(wǎng)絡的參數(shù),讓網(wǎng)絡表現(xiàn)出絕對意義上的好。在其中的最好還沒有達到最好的情況下,還可以利用梯度下降進一步訓練該網(wǎng)絡。

在談到這項新工作時,Ren 表示:“這篇論文非常扎實,里面包含的實驗比我們多得多。他們在非常努力地提升圖超網(wǎng)絡的絕對表現(xiàn),這是我們所樂見的。”

訓練“訓練師”

Knyazev和他的團隊將自己的超網(wǎng)絡稱為是 GHN -2,這種網(wǎng)絡從兩個重要方面改進了Ren及其同事構(gòu)建的圖超網(wǎng)絡。

首先,他們需要依賴 Ren 等人的技術(shù),用圖來表示神經(jīng)網(wǎng)絡結(jié)構(gòu)。該圖里面的每個節(jié)點都包含有關于執(zhí)行特定類型計算的神經(jīng)元子集的編碼信息。圖的邊則描述了信息是如何從一個節(jié)點轉(zhuǎn)到另一節(jié)點,如何從輸入轉(zhuǎn)到輸出的。

他們借鑒的第二個想法是一種方法,訓練超網(wǎng)絡來預測新的候選結(jié)構(gòu)的方法。這需要用到另外兩個神經(jīng)網(wǎng)絡。第一個用來開啟對原始候選圖的計算,更新與每個節(jié)點相關的信息,第二個把更新過的節(jié)點作為輸入,然后預測候選神經(jīng)網(wǎng)絡相應計算單元的參數(shù)。這兩個網(wǎng)絡也有自己的參數(shù),在超網(wǎng)絡能夠正確預測參數(shù)值之前,必須對這兩個網(wǎng)絡進行優(yōu)化。

poYBAGNHajmABYcmAALSvZf_Snw782.jpg

用圖來表示神經(jīng)網(wǎng)絡

為此,你得訓練數(shù)據(jù)——在本案例中,數(shù)據(jù)就是可能的人工神經(jīng)網(wǎng)絡(ANN)結(jié)構(gòu)的隨機樣本。對于樣本的每一個結(jié)構(gòu),你都要從圖開始,然后用圖超網(wǎng)絡來預測參數(shù),并利用預測的參數(shù)對候選 ANN進行初始化。然后該ANN會執(zhí)行一些特定任務,如識別一張圖像。通過計算該ANN的損失函數(shù)來更新做出預測的超網(wǎng)絡的參數(shù),而不是更新該ANN的參數(shù)以便做出更好的預測。這樣以來,該超網(wǎng)絡下一次就能做得更好?,F(xiàn)在,通過遍歷部分標記訓練圖像數(shù)據(jù)集的每一張圖像,以及隨機樣本結(jié)構(gòu)里面的每一個ANN,一步步地減少損失,直至最優(yōu)。到了一定時候,你就可以得到一個訓練好的超網(wǎng)絡。

由于Ren 的團隊沒有公開他們的源代碼,所以Knyazev 的團隊采用上述想法自己從頭開始寫軟件。然后Knyazev及其同事在此基礎上加以改進。首先,他們確定了 15 種類型的節(jié)點,這些節(jié)點混合搭配可構(gòu)建幾乎任何的現(xiàn)代深度神經(jīng)網(wǎng)絡。在提高預測準確性方面,他們也取得了一些進展。

最重要的是,為了確保 GHN-2 能學會預測各種目標神經(jīng)網(wǎng)絡結(jié)構(gòu)的參數(shù),Knyazev 及其同事創(chuàng)建了一個包含 100 萬種可能結(jié)構(gòu)的獨特數(shù)據(jù)集。Knyazev 說:“為了訓練我們的模型,我們創(chuàng)建了盡量多樣化的隨機結(jié)構(gòu)”。

因此,GHN-2 的預測能力很有可能可以很好地泛化到未知的目標結(jié)構(gòu)。Google Research的Brain Team研究科學家 Thomas Kipf 說:“比方說,人們使用的各種典型的最先進結(jié)構(gòu)他們都可以解釋,這是一大重大貢獻?!?/p>

結(jié)果令人印象深刻

當然,真正的考驗是讓 GHN-2 能用起來。一旦 Knyazev 和他的團隊訓練好這個網(wǎng)絡,讓它可以預測給定任務(比方說對特定數(shù)據(jù)集的圖像進行分類)的參數(shù)之后,他們開始測試,讓這個網(wǎng)絡給隨機挑選的候選結(jié)構(gòu)預測參數(shù)。該新的候選結(jié)構(gòu)與訓練數(shù)據(jù)集上百萬結(jié)構(gòu)當中的某個也許具備相似的屬性,也可能并不相同——有點算是異類。在前一種情況下,目標結(jié)構(gòu)可認為屬于分布范圍內(nèi);若是后者,則屬于分布范圍外。深度神經(jīng)網(wǎng)絡在對后者進行預測時經(jīng)常會失敗,所以用這類數(shù)據(jù)測試 GHN-2 非常重要。

借助經(jīng)過全面訓練的 GHN-2,該團隊預測了 500 個以前看不見的隨機目標網(wǎng)絡結(jié)構(gòu)的參數(shù)。然后將這 500 個網(wǎng)絡(其參數(shù)設置為預測值)與使用隨機梯度下降訓練的相同網(wǎng)絡進行對比。新的超網(wǎng)絡通??梢缘钟鶖?shù)千次 SGD 迭代,有時甚至做得更好,盡管有些結(jié)果更加復雜。

借助訓練好的 GHN-2 模型,該團隊預測了 500 個之前未知的隨機目標網(wǎng)絡結(jié)構(gòu)的參數(shù)。然后將這 500 個(參數(shù)設置為預測值的)網(wǎng)絡與利用隨機梯度下降訓練的同一網(wǎng)絡進行對比。盡管部分結(jié)果有好有壞,但新的超網(wǎng)絡的表現(xiàn)往往可以跟數(shù)千次 SGD 迭代的結(jié)果不相上下,有時甚至是更好。

對于圖像數(shù)據(jù)集 CIFAR-10 ,GHN-2 用于分布范圍內(nèi)的結(jié)構(gòu)得到的平均準確率為 66.9%,而用經(jīng)過近 2500 次 SGD 迭代訓練出來的網(wǎng)絡,其平均準確率為 69.2%。對于不在分布范圍內(nèi)的結(jié)構(gòu),GHN-2 的表現(xiàn)則出人意料地好,準確率達到了約 60%。尤其是,對一種知名的特定深度神經(jīng)網(wǎng)絡架構(gòu), ResNet-50, GHN2的準確率達到了 58.6% 這是相當可觀的。在本領域的頂級會議 NeurIPS 2021 上,Knyazev說:“鑒于 ResNet-50 比我們一般訓練的結(jié)構(gòu)大了有大概 20 倍,可以說泛化到 ResNet-50 的效果出奇地好?!薄?/p>

不過GHN-2 應用到 ImageNet 上卻表現(xiàn)不佳。ImageNet 這個數(shù)據(jù)集規(guī)模很大。平均而言,它的準確率只有 27.2% 左右。盡管如此,跟經(jīng)過 5000SGD 迭代訓練的同一網(wǎng)絡相比,GHN-2的表現(xiàn)也要好一些,后者的平均準確度只有 25.6%。 (當然,如果你繼續(xù)用 SGD 迭代的話,你最終可以實現(xiàn)95% 的準確率,只是成本會非常高。)最關鍵的是,GHN-2 是在不到一秒的時間內(nèi)對ImageNet 做出了參數(shù)預測,而如果用 SGD 在GPU上預測參數(shù),要想達到同樣的表現(xiàn),花費的平均時間要比 GHN-2 要多 10000 倍。

Veli?kovi?說:“結(jié)果絕對是令人印象深刻?;旧纤麄円呀?jīng)極大地降低了能源成本?!?/p>

一旦GHN-2 從結(jié)果樣本中為特定任務選出了最佳的神經(jīng)網(wǎng)絡,但這個網(wǎng)絡表現(xiàn)還不夠好時,至少該模型已經(jīng)過了部分訓練,而且可以還進一步優(yōu)化了。與其對用隨機參數(shù)初始化的網(wǎng)絡進行 SGD,不如以 GHN-2 的預測作為起點。Knyazev 說:“基本上我們是在模仿預訓練”。

超越 GHN-2

盡管取得了這些成功,但Knyazev 認為剛開始的時候機器學習社區(qū)會抵制使用圖超網(wǎng)絡。他把這種阻力拿來跟 2012 年之前深度神經(jīng)網(wǎng)絡的遭遇相比擬。當時,機器學習從業(yè)者更喜歡人工設計的算法,而不是神秘的深度網(wǎng)絡。但是,當用大量數(shù)據(jù)訓練出來的大型深度網(wǎng)絡開始超越傳統(tǒng)算法時,情況開始逆轉(zhuǎn)。Knyazev :“超網(wǎng)絡也可能會走上同樣的道路。”

與此同時,Knyazev 認為還有很多的改進機會。比方說,GHN-2 只能訓練來預測參數(shù),去解決給定的任務,比如對 CIFAR-10 或 ImageNet 里面的圖像進行分類,但不能同時執(zhí)行不同的任務。將來,他設想可以用更加多樣化的結(jié)果以及不同類型的任務(如圖像識別、語音識別與自然語言處理)來訓練圖超網(wǎng)絡。然后同時根據(jù)目標結(jié)構(gòu)與手頭的特定任務來做出預測。

如果這些超網(wǎng)絡確實能成功的話,那么新的深度神經(jīng)網(wǎng)絡的設計和開發(fā),將不再是有錢和能夠訪問大數(shù)據(jù)的公司的專利了。任何人都可以參與其中。Knyazev 非常清楚這種“讓深度學習大眾化”的潛力,稱之為長期愿景。

然而,如果像GHN -2 這樣的超網(wǎng)絡真的成為優(yōu)化神經(jīng)網(wǎng)絡的標準方法, Veli?kovi?強調(diào)了一個潛在的大問題。他說,對于圖超網(wǎng)絡,“你有一個神經(jīng)網(wǎng)絡——本質(zhì)上是一個黑盒子——預測另一個神經(jīng)網(wǎng)絡的參數(shù)。所以當它出錯時,你無法解釋[它]?!?/p>

不過,Veli?kovi? 強調(diào),如果類似 GHN-2 這樣的超網(wǎng)絡真的成為優(yōu)化神經(jīng)網(wǎng)絡的標準方法的話,可能會有一個大問題。他說:“你會得到一個基本上是個黑箱的神經(jīng)網(wǎng)絡,然后再用圖超網(wǎng)絡去預測另一個神經(jīng)網(wǎng)絡的參數(shù)。如果它出錯,你沒法解釋錯在哪里?!?/p>

當然,神經(jīng)網(wǎng)絡基本上也是這樣。Veli?kovi?說:“我不會說這是弱點,我把這叫做告警信號?!?/p>

不過Kipf看到的卻是一線希望。 “讓我最為興奮的是其他東西?!?GHN-2 展示了圖神經(jīng)網(wǎng)絡在復雜數(shù)據(jù)當中尋找模式的能力。

通常,深度神經(jīng)網(wǎng)絡是在圖像、文本或音頻信號里面尋找模式,這類信息一般都比較結(jié)構(gòu)化。但 GHN-2 卻是在完全隨機的神經(jīng)網(wǎng)絡結(jié)構(gòu)圖里面尋找模式。而圖是非常復雜的數(shù)據(jù)。

還有,GHN-2 可以泛化——這意味著它可以對未知、甚至不在分布范圍內(nèi)的網(wǎng)絡結(jié)構(gòu)的參數(shù)做出合理的預測。Kipf 說:“這項工作向我們表明,不同結(jié)構(gòu)的很多模式其實多少是優(yōu)點相似的,而且模型能學習如何將知識從一種結(jié)構(gòu)轉(zhuǎn)移到另一種結(jié)構(gòu),這可能會啟發(fā)神經(jīng)網(wǎng)絡新理論的誕生?!?/p>

如果是這樣的話,它可能會讓我們對這些黑箱有新的、更深入的理解。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    35164

    瀏覽量

    279929
  • 深度學習
    +關注

    關注

    73

    文章

    5561

    瀏覽量

    122794
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡智能診斷邁向 “自愈”時代

    模態(tài)的技術(shù)特性,DeepSeek正加速推動AI在金融、政務、科研及網(wǎng)絡智能等關鍵領域的深度應用。 信而泰:AI推理引擎賦能
    發(fā)表于 07-16 15:29

    Nordic收購 Neuton.AI 關于產(chǎn)品技術(shù)的分析

    Nordic Semiconductor 于 2025 年收購了 Neuton.AI,這是一家專注于超小型機器學習(TinyML)解決方案的公司。 Neuton 開發(fā)了一種獨特的神經(jīng)網(wǎng)絡
    發(fā)表于 06-28 14:18

    【「零基礎開發(fā)AI Agent」閱讀體驗】+ 入門篇學習

    很高興又有機會學習ai技術(shù),這次試讀的是「零基礎開發(fā)AI Agent」,作者葉濤、管鍇、張心雨。 大模型的普及是近三年來的一件大事,萬物皆可大模型已成為趨勢。作為大模型
    發(fā)表于 05-02 09:26

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件端側(cè)AI模型接入得心應手

    Studio提供了最優(yōu)解。Neuron Studio可針對模型到應用,提供一站式、全鏈路、自動開發(fā)協(xié)助,不僅AI應用開發(fā)的全流程可視
    發(fā)表于 04-13 19:52

    可智能深度學習AI攝像機模組方案

    、方案優(yōu)勢 500/800萬像素CMOS傳感器。 專業(yè)級海思Hi3519DV500、 Hi3403/3402、星宸SSC338G。 可內(nèi)嵌智能深度學習人臉算法,機動車識別、車牌識別、非機動車識別算法
    發(fā)表于 03-21 11:28

    行業(yè)首創(chuàng):基于深度學習視覺平臺的AI驅(qū)動輪胎檢測自動

    全球領先的輪胎制造商 NEXEN TIRE 在其輪胎生產(chǎn)檢測過程中使用了基于友思特伙伴Neurocle開發(fā)AI深度學習視覺平臺,實現(xiàn)缺陷檢測率高達99.96%,是該行業(yè)首個使用
    的頭像 發(fā)表于 03-19 16:51 ?444次閱讀
    行業(yè)首創(chuàng):基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>視覺平臺的<b class='flag-5'>AI</b>驅(qū)動輪胎檢測自動<b class='flag-5'>化</b>

    AI Agent 應用與項目實戰(zhàn)》----- 學習如何開發(fā)視頻應用

    再次感謝發(fā)燒友提供的閱讀體驗活動。本期跟隨《AI Agent 應用與項目實戰(zhàn)》這本書學習如何構(gòu)建開發(fā)一個視頻應用。AI Agent是一種智能應用,能夠根據(jù)用戶需求和環(huán)境變化做出相應響應
    發(fā)表于 03-05 19:52

    BP神經(jīng)網(wǎng)絡深度學習的關系

    ),是一種多層前饋神經(jīng)網(wǎng)絡,它通過反向傳播算法進行訓練。BP神經(jīng)網(wǎng)絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡權(quán)重,目的是最小
    的頭像 發(fā)表于 02-12 15:15 ?861次閱讀

    AI自動化生產(chǎn):深度學習在質(zhì)量控制中的應用

    隨著科技的飛速發(fā)展,人工智能(AI)與深度學習技術(shù)正逐步滲透到各個行業(yè),特別是在自動化生產(chǎn)中,其潛力與價值愈發(fā)凸顯。深度學習軟件不僅使人工和
    的頭像 發(fā)表于 01-17 16:35 ?698次閱讀
    <b class='flag-5'>AI</b>自動化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學習</b>在質(zhì)量控制中的應用

    NPU在深度學習中的應用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其核心驅(qū)動力之一,已經(jīng)在眾多領域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1916次閱讀

    AI干貨補給站 | 深度學習與機器視覺的融合探索

    ,幫助從業(yè)者積累行業(yè)知識,推動工業(yè)視覺應用的快速落地。本期亮點預告本期將以“深度學習與機器視覺的融合探索”為主題,通過講解深度學習定義、傳統(tǒng)機器視覺與
    的頭像 發(fā)表于 10-29 08:04 ?577次閱讀
    <b class='flag-5'>AI</b>干貨補給站 | <b class='flag-5'>深度</b><b class='flag-5'>學習</b>與機器視覺的融合探索

    AI大模型與深度學習的關系

    AI大模型與深度學習之間存在著密不可分的關系,它們互為促進,相輔相成。以下是對兩者關系的介紹: 一、深度學習
    的頭像 發(fā)表于 10-23 15:25 ?2891次閱讀

    AI for Science:人工智能驅(qū)動科學創(chuàng)新》第二章AI for Science的技術(shù)支撐學習心得

    人工智能在科學研究中的核心技術(shù),包括機器學習深度學習、神經(jīng)網(wǎng)絡等。這些技術(shù)構(gòu)成了AI for Science的基石,使得
    發(fā)表于 10-14 09:16

    FPGA做深度學習能走多遠?

    。FPGA的優(yōu)勢就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學習未來怎樣發(fā)展,能走多遠,你怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    NVIDIA推出全新深度學習框架fVDB

    在 SIGGRAPH 上推出的全新深度學習框架可用于打造自動駕駛汽車、氣候科學和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1148次閱讀