一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

山世光談深度學(xué)習(xí)生產(chǎn)線、以及中科視拓深度學(xué)習(xí)算法平臺SeeTaaS

5b9O_deeplearni ? 2017-12-26 13:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:人工智能已成為國家級的戰(zhàn)略目標, 這激發(fā)了各行各業(yè)的AI熱潮。而目前AI人才的稀缺以及開發(fā)任務(wù)的繁重,限制了深度學(xué)習(xí)落地,因此AI產(chǎn)業(yè)迫切需要賦能平臺。中科視拓董事長山世光研究員,在2017鈦媒體T-EDGE年度國際盛典上,談深度學(xué)習(xí)生產(chǎn)線、以及中科視拓通用深度學(xué)習(xí)算法平臺SeeTaaS。

圖像識別或者人臉識別是今年以來AI實現(xiàn)最大爆發(fā)的領(lǐng)域。對于這些技術(shù)的實現(xiàn),中科院計算所研究員、中科視拓創(chuàng)始人、董事長兼CTO山世光,將其歸結(jié)為一個簡單的公式,那就是“A+B+C”。A是算法,B是Bigdata,C是Computing。

12月16日,在2017鈦媒體T-EDGE年度國際盛典上,山世光提到,2012年之后,因為互聯(lián)網(wǎng)和物聯(lián)網(wǎng)的發(fā)展,我們有更多機會收集大量數(shù)據(jù),再加上GPU等高性能計算設(shè)備的普及,我們有機會完成大規(guī)模的機器訓(xùn)練。特別的,上面ABC三點中的A,即算法,最主要的就是指深度學(xué)習(xí)(Deep Learning)。

深度學(xué)習(xí)在計算機視覺領(lǐng)域,解決了或者推動了一大類非線性的映射函數(shù)學(xué)習(xí)的問題。這樣的方式,使AI開發(fā)的方法論產(chǎn)生了極大變化。

但與此同時,從落地角度來看,依賴于有標注大數(shù)據(jù)的深度學(xué)習(xí)也還存在非常多問題。

首先,個性化需求非常多,可批量復(fù)制的“標品”比較少。以巡邏機器人為例,可能需要開發(fā)塑料瓶子檢測系統(tǒng),也可能是塑料袋識別,甚至是爛白菜的識別,這么多不同的物體的識別是非常重的開發(fā)任務(wù)。

其次,從計算角度講,深度學(xué)習(xí)的計算成本比較高,端側(cè)的計算能力需求較大。而且AI技術(shù)的生產(chǎn)效率現(xiàn)在還比較低。如何加快生產(chǎn)效率,需要大量懂深度學(xué)習(xí)的專業(yè)算法人才,而現(xiàn)在并沒有這么多的人才儲備。

現(xiàn)階段,AI人才奇缺。行業(yè)的碩士畢業(yè)生大概30-50萬年薪,博士是50-80萬年薪。對比人才數(shù)量的稀缺,開發(fā)任務(wù)卻十分繁重,如果每個任務(wù)都做要3-5個月才能完成,這是"災(zāi)難性"的事情。

以下是中科視拓創(chuàng)始人董事長兼CTO山世光演講發(fā)言:

非常榮幸有機會來到鈦媒體今年的年度盛典給大家做一次分享。

如果說創(chuàng)業(yè),我是一個新兵。我在中科院系統(tǒng)工作了20年,從事基礎(chǔ)研究和應(yīng)用技術(shù)研發(fā)工作。我今天的分享有很多內(nèi)容跟技術(shù)相關(guān)。我演講的題目叫《計算機視覺技術(shù)現(xiàn)狀展望和產(chǎn)業(yè)化》。

首先,我們說計算機視覺是什么樣的學(xué)科,要做什么的事情?

很多人不了解這件事為什么那么難?如果看一下我們需要處理的對象,就會發(fā)現(xiàn)它確實是非常難的任務(wù)。

我們所謂的圖像是用攝像頭來捕捉物體表面反射的不同顏色的光,進行采樣,每個點即像素都用紅綠藍三個不同的分量數(shù)值表示不同的顏色。所以,到了計算機里面,每幅圖像就是很多很多0-255之間的整數(shù)值。大家看這些數(shù)。相信沒有一個人在非常短的時間內(nèi),能夠通過觀察這些數(shù)告訴我圖像里的內(nèi)容是什么。計算機視覺要完成的就是這樣的任務(wù),通過對這些數(shù)的分析完成對圖像內(nèi)容的理解。

這次人工智能的浪潮,首先在語音識別和圖像識別領(lǐng)域取得了顯著的進步,并進一步引發(fā)了AI在更多領(lǐng)域的應(yīng)用。

從圖像識別或計算機視覺角度講,在2012年,深度學(xué)習(xí)首次在Imagnet評測數(shù)據(jù)集上應(yīng)用,一下子將分類錯誤率降低了10個百分點。從圖像分類的角度來講,在2011年,圖像分類錯誤率是26%,到了2012年,利用深度學(xué)習(xí)之后,下降到16%。到了2016年,隨著深度學(xué)習(xí)模型深度不斷加深,錯誤率進一步下降到了2.3%。也就是說,大概在5年時間里,圖像識別率的錯誤率降低了10倍。

下面是其他五個深度學(xué)習(xí)帶來重要進步的典型例子。

在物體檢測領(lǐng)域。所謂物體檢測就是提供給一張照片,把照片里不同的物體,如車、人等物體框出來。2013年,在Imagnet測試集上檢測正確率只有23%,到了2017年,正確率達到了73%,在視頻里尋找30類物體也達到80%的精度。

在視頻監(jiān)控領(lǐng)域,我們希望能夠?qū)θ恕④?、物進行檢測識別,利用深度學(xué)習(xí),現(xiàn)在很多系統(tǒng)包括中科視拓的技術(shù)都可以實現(xiàn)對人、車、騎行的準確檢測、跟蹤以及對性別、車型等屬性的大致分類。

在圖像分割領(lǐng)域,例如為了實現(xiàn)自動駕駛,給一幅圖像之后,我們希望算法能夠知道哪塊是道路、哪塊是樹木、哪塊是建筑,這是一個分割問題。從2013年到2017年,分割的準確率也從50%提高到了86.9%。

還有一個任務(wù)從2015年左右才開始逐漸得到重視,即所謂的“看圖作文”,就是在提供一幅圖像之后,希望計算機能夠生成一句或一段文本描述圖像里的內(nèi)容。在過去兩三年里,這一技術(shù)得到了非常大的進步,有些系統(tǒng)產(chǎn)生的文本描述已經(jīng)可以和人對這個圖像的描述媲美,甚至有些普通人已經(jīng)不能夠判斷到底是機器自動生成的一段話,還是真人寫出來的一段話。實現(xiàn)這一任務(wù)采用的方法也是以深度學(xué)習(xí)為基礎(chǔ)的。

還有一些類似藝術(shù)創(chuàng)作的技術(shù)進展,比如我們可以通過計算給一幅圖像轉(zhuǎn)化風(fēng)格,把一個人的頭發(fā)顏色改掉,加上一個劉海,或者加上眼鏡,所產(chǎn)生的圖像可以以假亂真;我們也可以把一副普通的圖像變成莫奈風(fēng)格的油畫,把馬變成斑馬,把冬天的照片變成夏天的照片。

上個月,iPhoneX的發(fā)布使我們進一步對人臉識別應(yīng)用有了更加深刻的認識。其實在人臉識別領(lǐng)域,過去兩到三年,也出現(xiàn)了2-4個數(shù)量級的錯誤率下降。蘋果聲稱iPhone X所采用的FaceID錯誤率大概在百萬分之一,意味著如果有一百萬個人撿到你的手機,只有一個人可以冒充你解鎖成功。因為它采用的傳感器是RGBD相機,里面不僅有彩色照片,還有深度信息、近紅外信息,同時在注冊階段也會捕捉你的多幅照片,以及在識別階段也是近距離進場的識別等等,這些方式都使得iPhone X的FaceID識別任務(wù)成為人臉識別領(lǐng)域一個相對比較容易的任務(wù)。其實三星Note3幾年前就已經(jīng)可以用人臉識別解鎖,華為也在去年與我們合作將人臉識別應(yīng)用到了其榮耀Magic手機上去實現(xiàn)對手機的半解鎖。

其實人臉識別有非常多不同的應(yīng)用場景,手機的應(yīng)用只是其中之一,即使是一比一驗證你是不是你的任務(wù),也有不同的應(yīng)用場景。比如,在機場、車站等應(yīng)用場景,用身份證中的卡內(nèi)人臉照片和持卡人人臉比對,在過去3-4年里錯誤率大概下降了2-4個數(shù)量級,達到了萬分之一甚至更低的錯誤率,即有一萬個人試圖冒充你,只有一個人可能成功,在這種情況下,本人持自己身份證可以有95%以上的正確識別率。企業(yè)員工刷卡后進行人臉驗證的正確率則可以高達99%。

對于這些技術(shù)背后的AI,如果我們用一個簡單的公式來表達,那就是“A+B+C”。A是Algorithm即算法,B是Bigdata大數(shù)據(jù),C是算力Computing。我想這樣的公式或這樣的說法,最近一段時間大家都越來越熟悉了。這三者中,A即算法,最主要的就是指深度學(xué)習(xí)算法了。

所謂深度學(xué)習(xí)其實并不是新的技術(shù),在上世紀八十年代中后期的時候,理論、方法就基本成熟,但因為當(dāng)時沒有大量數(shù)據(jù),沒有足夠強的計算能力,這就使在當(dāng)時我們不可能發(fā)揮它的作用。

2012年之后,因為互聯(lián)網(wǎng)和物聯(lián)網(wǎng)的發(fā)展,使我們有更多機會收集大量數(shù)據(jù),再加上有GPU等平民化高性能計算設(shè)備的出現(xiàn),使我們有機會完成大規(guī)模的深度學(xué)習(xí)算法的訓(xùn)練。

深度學(xué)習(xí)在計算機視覺領(lǐng)域,解決了或者至少推動了一大類非線性的映射函數(shù)學(xué)習(xí)的問題。換句話說,給我們一張照片,這些照片就是一些數(shù)值,形成輸入x,我們通過深度模型學(xué)習(xí)一個F函數(shù),用F作用于x,即F(x)得到我們想要得到的Y,這個Y可能是一個標簽(比如貓,狗),也可能是我們想要分割的結(jié)果。

這樣的方式,使我們做AI的方法論產(chǎn)生了極大變化。從過去,我們大量依賴人類專家知識來設(shè)計算法,到現(xiàn)在,變成有大監(jiān)督大數(shù)據(jù)驅(qū)動的方法為主。

以一個具體的應(yīng)用需求為例(從客戶那挖掘出來的案例)。

我們一個客戶做了小區(qū)巡邏機器人,物業(yè)希望這個機器人可以幫助解決小區(qū)管理中的一個痛點問題。小區(qū)里經(jīng)常有小狗亂拉屎,所以物業(yè)需要一個狗屎檢測系統(tǒng)。這樣的話,巡邏機器人可以及時發(fā)現(xiàn)這樣的垃圾,然后“報警”,由保潔及時來清除掉。

在沒有深度學(xué)習(xí)的時候,我們需要做的是:

第一步,收集一定量的包含狗屎的圖像數(shù)據(jù)。

第二步,人工設(shè)計或選擇一些特征。

第三步,選擇某種分類器在收集的數(shù)據(jù)集合上測試它,看它效果好不好。如果不夠好就回到第二步,不斷進行反饋和調(diào)整。

這是一個人工設(shè)計特征的過程,這樣的方式非常耗時,非常不高效。我們做人臉檢測花了20年,做行人車輛檢測大概花了10年,即使狗屎檢測相對容易,可能也需要至少一年。深度學(xué)習(xí)來了之后,整個過程變得很不一樣。如果我們采用眾包等方式,可能在一個月時間里就可以收集上萬張標注了狗屎的照片,然后算法工程師可以根據(jù)經(jīng)驗選擇一個深度學(xué)習(xí)算法,并設(shè)定一些超參數(shù),然后只需要讓機器在收集的數(shù)據(jù)集上進行訓(xùn)練和學(xué)習(xí)就可以了,這個過程可以非??焖俚耐瓿?,大概只需要三個月。從過去的數(shù)年到現(xiàn)在的數(shù)月,顯然大大提高了我們研發(fā)一項AI技術(shù)的效率。

這樣的方法論極大的提高了視覺技術(shù)的水平和落地效率。

我認為很多場景下能看的AI才有真的智能。所以,視覺智能會有大量場景化需求,如果我們?nèi)ゼ毧疵恳粋€領(lǐng)域,從公共安全、機器人、自動駕駛、無人機到醫(yī)療,每個領(lǐng)域我們都可以非常輕易的發(fā)現(xiàn)視覺的用武之地。如果AI有一雙眼睛(也就是有攝像頭),我們背后有合適的算法,機器就可以更多的替換或者輔助人更好、更高效的做我們想要它做的事情。

但從落地角度來講,也存在非常多問題。

問題一:個性化需求非常多,可批量復(fù)制的“標品”比較少。

以“狗屎”識別機器人為例,可能明天還需要一個塑料瓶子檢測,后天是塑料袋識別,再后天是白菜識別,這么多不同的物體,如果我們都采用前面說的那種開發(fā)方式,每種東西需要至少三個月,那么我們就會面臨非常重的開發(fā)任務(wù),關(guān)鍵是現(xiàn)在并沒有這么多人才可以去做這么多事。

從落地角度來看,誰來做、誰去買單、誰去開發(fā)算法,采用什么樣的商業(yè)模式和合作模式都是問題。

問題二:從計算力角度講,深度學(xué)習(xí)的計算成本相對比較高。最近很多的AI專用芯片市場就是在解決這類問題。

AI技術(shù)的生產(chǎn)效率現(xiàn)在是比較低的,我們要加快生產(chǎn)效率,就需要人力,需要高水平的AI算法人才。可是AI的人才奇缺?,F(xiàn)在深度學(xué)習(xí)專業(yè)碩士畢業(yè)生可以拿到30-50萬年薪,博士則可以高達50-80萬年薪。在座的女孩們,如果沒有男朋友的話,到我們這個領(lǐng)域看一看。

相比可用的人才數(shù)量,這么多的視覺處理任務(wù),如果每個任務(wù)都要2個碩士博士做3-5個月才能完成,這將是災(zāi)難性的事情。

所以,未來我們需要新的方法論,從現(xiàn)在有監(jiān)督大數(shù)據(jù)驅(qū)動的方法論,變成知識和數(shù)據(jù)聯(lián)合驅(qū)動的方法論,為了完成這些事情,我們需要更強大的機器學(xué)習(xí)方法。使得我們在不同數(shù)據(jù)條件下也可以獲得穩(wěn)定、可靠的識別能力,這就體現(xiàn)在我們可能需要利用小數(shù)據(jù)、臟數(shù)據(jù)進行機器學(xué)習(xí)。

此外,用來學(xué)習(xí)的數(shù)據(jù)還可能是半監(jiān)督的數(shù)據(jù)、弱監(jiān)督的數(shù)據(jù),比如給你一張照片告訴你其中有狗屎,但并沒有明確告訴你這個狗屎在什么位置,如果我們能有可以充分利用這些數(shù)據(jù)的更好的機器學(xué)習(xí)方法,我們才可能更加快速的開發(fā)AI技術(shù)。

這還不夠,我們還希望有更快捷的AI開發(fā)方法。比如我們希望開發(fā)一個安全帽檢測的引擎,這是實際需求。我們一旦把這個任務(wù)交給機器之后,希望AI生產(chǎn)平臺可以全自動完成全部的開發(fā)過程。機器完成這個任務(wù)的可能流程是:首先,它會理解這是一個檢測任務(wù),檢測目標是安全帽,然后機器自動在百度上去搜索大量安全帽的圖像,然后在百度上搜索一些關(guān)于安全帽的知識描述,例如安全帽多數(shù)是圓的,顏色各異,經(jīng)常戴在人頭上等等。然后,算法就通過對這樣一些數(shù)據(jù)的自動處理和學(xué)習(xí),以及知識的利用完成一個“安全帽檢測”AI引擎的開發(fā)。

遺憾的是,從算法的角度來講,以我對該領(lǐng)域?qū)W術(shù)前沿的了解,要達到這樣的目標我們可能還需要5-10年,還不一定100%完全做到那種程度。

在此之前,工業(yè)界最靠譜的做法恐怕還是采用“數(shù)據(jù)暴力”來完成多數(shù)類似AI任務(wù)的研發(fā)。但我們?nèi)绾谓鉀Q缺少大量AI算法工程師的問題呢?我認為我們需要一個更強大、更便捷的AI算法生產(chǎn)基礎(chǔ)設(shè)施。這樣的基礎(chǔ)設(shè)施,就像當(dāng)年從專業(yè)相機到傻瓜相機的歷史演變一樣。

為了讓我們有更多的人才可以開發(fā)AI,以滿足大量的視覺智能開發(fā)任務(wù),我們的AI生產(chǎn)工具要從Caffe,Mxnet和Tensorflow等只能昂貴的高端人才可以使用的開發(fā)工具發(fā)展到“傻瓜式”的AI開發(fā)平臺。這樣的平臺應(yīng)該使更多的中低端人才,即使不懂AI、不懂深度學(xué)習(xí),也可以經(jīng)過簡單的培訓(xùn),就可以利用自己的私有數(shù)據(jù),在這樣的軟硬建基礎(chǔ)設(shè)施平臺上,方便快捷的開發(fā)出自己所需要的AI技術(shù)引擎,并便捷的嵌入自己的業(yè)務(wù)系統(tǒng)中。

我作為主要創(chuàng)始人成立的中科視拓,自去年8月成立以來,不僅做了大量人臉識別、無人機視覺等計算機視覺技術(shù)服務(wù)項目,開發(fā)了多款人臉識別產(chǎn)品和解決方案。與此同時,我們已經(jīng)研發(fā)了一個稱為SeeTaaS的深度學(xué)習(xí)算法開發(fā)平臺,這個平臺不但在我們公司內(nèi)部逐步得到了應(yīng)用,也已經(jīng)開始提供給我們的B端客戶,使他們也具備了用自己的私有數(shù)據(jù)訓(xùn)練自己所需的深度學(xué)習(xí)算法和引擎的能力。相信這個SeeTaaS平臺會越來越好用,最終實現(xiàn)我們“讓天下沒有難開發(fā)的AI”這一夢想!

謝謝大家!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    279930
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794
  • 山世光
    +關(guān)注

    關(guān)注

    0

    文章

    1

    瀏覽量

    1014

原文標題:山世光:AI產(chǎn)業(yè)需要賦能平臺

文章出處:【微信號:deeplearningclass,微信公眾號:深度學(xué)習(xí)大講堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    行業(yè)首創(chuàng):基于深度學(xué)習(xí)視覺平臺的AI驅(qū)動輪胎檢測自動化

    全球領(lǐng)先的輪胎制造商 NEXEN TIRE 在其輪胎生產(chǎn)檢測過程中使用了基于友思特伙伴Neurocle開發(fā)的AI深度學(xué)習(xí)視覺平臺,實現(xiàn)缺陷檢測率高達99.96%,是該行業(yè)首個使用AI
    的頭像 發(fā)表于 03-19 16:51 ?444次閱讀
    行業(yè)首創(chuàng):基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>視覺<b class='flag-5'>平臺</b>的AI驅(qū)動輪胎檢測自動化

    如何排除深度學(xué)習(xí)工作臺上量化OpenVINO?的特定層?

    無法確定如何排除要在深度學(xué)習(xí)工作臺上量化OpenVINO?特定層
    發(fā)表于 03-06 07:31

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    ,并廣泛介紹了深度學(xué)習(xí)在兩個主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報行動和自主平臺。最后,討論了相關(guān)的威脅、機遇、技術(shù)和實際困難。主要發(fā)現(xiàn)是,人工智能技術(shù)并非無所不能,需要謹慎應(yīng)用,同時考慮到其局限性、網(wǎng)絡(luò)安全威脅
    的頭像 發(fā)表于 02-14 11:15 ?538次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的定義與發(fā)展
    的頭像 發(fā)表于 02-12 15:15 ?861次閱讀

    AI自動化生產(chǎn)深度學(xué)習(xí)在質(zhì)量控制中的應(yīng)用

    隨著科技的飛速發(fā)展,人工智能(AI)與深度學(xué)習(xí)技術(shù)正逐步滲透到各個行業(yè),特別是在自動化生產(chǎn)中,其潛力與價值愈發(fā)凸顯。深度學(xué)習(xí)軟件不僅使人工和
    的頭像 發(fā)表于 01-17 16:35 ?698次閱讀
    AI自動化<b class='flag-5'>生產(chǎn)</b>:<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在質(zhì)量控制中的應(yīng)用

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?1916次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?657次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1368次閱讀

    激光雷達技術(shù)的基于深度學(xué)習(xí)的進步

    信息。這使得激光雷達在自動駕駛、無人機、機器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機器學(xué)習(xí)的一個分支,它通過模擬人
    的頭像 發(fā)表于 10-27 10:57 ?1069次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1234次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過程,實現(xiàn)對復(fù)雜數(shù)據(jù)的學(xué)習(xí)和識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進行訓(xùn)練和推理。深度學(xué)習(xí)算法為AI大模型
    的頭像 發(fā)表于 10-23 15:25 ?2891次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?615次閱讀

    FPGA做深度學(xué)習(xí)能走多遠?

    ,F(xiàn)PGA 也需要不斷適應(yīng)和改進。研究人員和開發(fā)者將致力于針對 FPGA 的特點對深度學(xué)習(xí)算法進行優(yōu)化,例如探索更高效的模型壓縮方法、量化技術(shù)以及硬件友好的
    發(fā)表于 09-27 20:53

    深度識別算法包括哪些內(nèi)容

    深度識別算法深度學(xué)習(xí)領(lǐng)域的一個重要組成部分,它利用深度神經(jīng)網(wǎng)絡(luò)模型對輸入數(shù)據(jù)進行高層次的理解和識別。
    的頭像 發(fā)表于 09-10 15:28 ?843次閱讀

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1148次閱讀