人類心臟是一臺令人驚嘆的機(jī)器,它能持續(xù)運(yùn)轉(zhuǎn)長達(dá)一個世紀(jì)而不失靈。測量心臟功能的關(guān)鍵方法之一是計算其射血分?jǐn)?shù),即每搏輸出量占心室舒張末期容積量的百分比。而測量這個指標(biāo)的第一步依賴于對心臟圖像心室的分割。
問題描述
開發(fā)一個能夠?qū)π呐K磁共振成像(MRI)數(shù)據(jù)集圖像中的右心室自動分割的系統(tǒng)。到目前為止,這主要是通過經(jīng)典的圖像處理方法來處理的。而現(xiàn)代深度學(xué)習(xí)技術(shù)有可能提供更可靠、更自動化的解決方案。
2016年由Kaggle贊助的左心室分割挑戰(zhàn)賽中的三名獲獎?wù)叨疾捎昧松疃葘W(xué)習(xí)解決方案。然而,分割右心室(RV)則更具挑戰(zhàn)性,因為:
在腔內(nèi)存在信號強(qiáng)度類似于心肌的小梁; RV復(fù)雜的新月形;分割根尖圖像切片的難度;個體之間的室內(nèi)形狀和強(qiáng)度存在相當(dāng)大的差異,特別是在不同的疾病病例之間。
撇開醫(yī)學(xué)術(shù)語不談,要識別RV就更困難了。左心室是一個厚壁圓環(huán),而右心室是一個形狀不規(guī)則的物體,有薄的壁,有時會與周圍的組織混合在一起。這是MRI快照右心室內(nèi)壁和外壁(心內(nèi)膜和心外膜)的手工繪制輪廓:
這是一個分割起來很容易的例子。這一個比較困難:
而這對于沒有經(jīng)過訓(xùn)練的眼睛來說完全是一個挑戰(zhàn):
事實上,與左心室相比,醫(yī)生需要耗費(fèi)兩倍的時間來確定右心室的體積并生成結(jié)果。這項工作的目的是建立一個高度準(zhǔn)確的右心室自動分割深度學(xué)習(xí)模型。模型的輸出是*分割掩碼*,即一個逐像素的掩碼,用來表示某個像素是否是右心室的一部分或只是背景。
數(shù)據(jù)集
對于當(dāng)前這個問題,深度學(xué)習(xí)需要面對的最大挑戰(zhàn)是數(shù)據(jù)集太小。 數(shù)據(jù)集(可以訪問這里)僅包含了來自于16例患者的243張醫(yī)師分割的MRI圖像。 另外還有3697張未標(biāo)記的圖像,這對于無監(jiān)督或半監(jiān)督技術(shù)可能會有用,但是我將這些放在了一邊,因為這是一個監(jiān)督學(xué)習(xí)問題。 圖像尺寸為216×256像素。
由于數(shù)據(jù)集過小,人們可能會懷疑無法將其一般化到尚未看到的圖像!但是很不幸,醫(yī)療上標(biāo)記過的數(shù)據(jù)非常昂貴,并且很難獲取到。對數(shù)據(jù)集進(jìn)行處理的標(biāo)準(zhǔn)程序是對圖像應(yīng)用仿射變換:隨機(jī)旋轉(zhuǎn)、平移、縮放和剪切。此外,我實現(xiàn)了彈性變形,也就是對圖像的局部區(qū)域進(jìn)行拉伸和壓縮。
應(yīng)用這種圖像增強(qiáng)算法的目的是為了防止神經(jīng)網(wǎng)絡(luò)只記住訓(xùn)練的樣例,并強(qiáng)迫其學(xué)習(xí)RV是一個實心的、月牙形的、方向任意的物體。在我實現(xiàn)的訓(xùn)練框架中,我會隨時對數(shù)據(jù)集應(yīng)用圖像變換算法,這樣,神經(jīng)網(wǎng)絡(luò)就會在每次訓(xùn)練時看到新的隨機(jī)變換。
由于大多數(shù)像素都屬于背景,所以各個種類之間分布不平衡。如果將像素強(qiáng)度歸一化在0和1之間,那么在整個數(shù)據(jù)集中,只有5%的像素屬于RV腔的一部分。
在創(chuàng)建損失函數(shù)時,我嘗試了重加權(quán)方案來平衡種類的分布情況,但最終發(fā)現(xiàn)未加權(quán)平均算法的表現(xiàn)最好。
在訓(xùn)練中,有20%的圖像被取出來作為驗證集使用。 RV分割挑戰(zhàn)賽的組織者有一個單獨的測試集,它由另外32個患者的514張MRI圖像組成。我提交的預(yù)測輪廓就是使用這個測試集進(jìn)行最終評估的。
還需要有一種方法來對數(shù)據(jù)集上的模型性能進(jìn)行量化。RV分割挑戰(zhàn)賽的組織者選擇使用了戴斯系數(shù)。模型會輸出一個掩碼*X*來描述RV,而戴斯系數(shù)將*X*與由醫(yī)師創(chuàng)建的掩碼*Y*通過以下方式進(jìn)行比較:


計算值是交叉區(qū)域與兩區(qū)域之和的比率的兩倍。對于不相交的區(qū)域,值為0;如果兩區(qū)域完全一致,則值為1。
下面我們來看下模型架構(gòu)。
U-net:基線模型
由于我們只有四周的時間來完成這個項目,所以我想盡快實現(xiàn)一個基線模型并讓它運(yùn)行起來。我選擇了由Ronneberger、Fischer和Brox提出的u-net模型,因為它曾在生物醫(yī)學(xué)分割項目中取得過成功,而且它的作者能夠通過使用積極的圖像增強(qiáng)和逐像重新加權(quán)算法并僅基于*30張圖片*來訓(xùn)練網(wǎng)絡(luò)。
u-net架構(gòu)由一個收縮路徑組成,就是將圖像折疊成一組高級特征,隨后是使用特征信息構(gòu)建像素分割掩碼的擴(kuò)展路徑。 u-net獨特的地方就是它的“復(fù)制和合并”連接,這些連接能夠?qū)⑿畔脑缙谔卣鲌D傳遞到構(gòu)建分割掩碼網(wǎng)絡(luò)的后續(xù)部分。作者指出,這些連接允許網(wǎng)絡(luò)同時并入高級特征和像素方面的細(xì)節(jié)。
我們使用的架構(gòu)如下所示:

由于我們圖像尺寸是u-net作者原本考慮的一半大小,所以我們需要將原始模型中的降采樣層數(shù)從4個減少到3個來適應(yīng)網(wǎng)格。我們也要用零來填充卷積,以保持圖像的大小不變。該模型是用Keras實現(xiàn)的。
如果沒有圖像增強(qiáng),u-net在訓(xùn)練數(shù)據(jù)集上的戴斯系數(shù)能達(dá)到0.99(0.01),這意味著該模型具有足夠的能力來捕獲RV分割問題的復(fù)雜性。然而,驗證戴斯系數(shù)為0.79(0.24),所以u-net過強(qiáng)。圖像增強(qiáng)改進(jìn)了泛化,并將驗證精度提高到了0.82(0.23),代價是將訓(xùn)練精度降至0.91(0.06)。
我們?nèi)绾芜M(jìn)一步地降低訓(xùn)練與驗證之間的差距呢?正如Andrew Ng在這個很棒的談話中描述的那樣,我們可以用更多的數(shù)據(jù)(這不太可能)、正則化(dropout和批處理規(guī)范化沒有效果)、或嘗試新的模型架構(gòu)。
擴(kuò)張U-net:全局感受野
要對器官圖像進(jìn)行分割,需要了解器官之間排列的相關(guān)知識。事實證明,即使在u-net最深層的神經(jīng)元也只有68×68像素的感受野。網(wǎng)絡(luò)的任何部分都無法“看到”整個圖像。網(wǎng)絡(luò)不知道人類只有一個右心室。例如,下面的圖片中,箭頭標(biāo)記的地方被錯誤分類了:

我們使用擴(kuò)張卷積來增加網(wǎng)絡(luò)的感受野。

在上圖中,底層的卷積是規(guī)則的3×3卷積。下一層,我們將卷積擴(kuò)大了2倍,所以在原始圖像中它們的有效感受野是7×7。如果頂層卷積擴(kuò)大4倍,則能產(chǎn)生15×15的感受野。以此類推。

從原理上來說,黃色標(biāo)記的卷積層被u-net中的擴(kuò)張卷積所替代。最內(nèi)層的神經(jīng)元現(xiàn)在具有了覆蓋整個輸入圖像的感受野。我稱之為“擴(kuò)張u-net”。
在數(shù)量上,擴(kuò)張u-net確實提高了效果,達(dá)到了0.85(0.19)的驗證戴斯分?jǐn)?shù),同時保持了0.92(0.08)的訓(xùn)練效果!
擴(kuò)張DenseNet:一次性多個尺度
這個靈感來自于物理中的張量網(wǎng)絡(luò),我決定嘗試使用一個新型的圖像分割架構(gòu),我稱之為“擴(kuò)張DenseNet”。它結(jié)合了擴(kuò)張卷積和DenseNet這兩種想法,這樣能夠大大減少網(wǎng)絡(luò)的深度和參數(shù)。
對于分割而言,我們需要來自多個尺度的全局上下文和信息來產(chǎn)生像素級掩碼。如果我們完全依賴于擴(kuò)張卷積來產(chǎn)生全局上下文,而不是通過降采樣來將圖像變得更小呢?現(xiàn)在,所有卷積層的大小都相同,我們可以應(yīng)用DenseNet架構(gòu)的關(guān)鍵思想,并在所有層之間使用“復(fù)制和合并”連接。擴(kuò)張DenseNet的結(jié)果如下圖所示:

在DenseNet中,第一個卷積層的輸出作為輸入饋送到所有的后續(xù)層中,第二、第三層也這樣。
擴(kuò)張DenseNet表現(xiàn)不錯,在驗證集上得到了0.87(0.15)的戴斯得分,訓(xùn)練精度為0.91(0.10),同時保持了極高的參數(shù)效率!
結(jié)果
對人類在RV分割方面的評估給如何對模型的表現(xiàn)進(jìn)行評估指明了方向。研究人員估計,人類完成RV分割任務(wù)的戴斯得分為0.90(0.10)。上面所述的已經(jīng)發(fā)布的模型是完全卷積網(wǎng)絡(luò)(FCN),測試集上的精度為0.84(0.21)。
我開發(fā)的模型在驗證集上已經(jīng)超過了最新的技術(shù)水平,并且正在接近人類的表現(xiàn)!然而,真正的評測是在測試集上評估模型的表現(xiàn)。此外,上面引用的數(shù)字是針對心內(nèi)膜的, 那么心外膜的表現(xiàn)如何呢?我在心外膜上訓(xùn)練了一個單獨的模型,并將細(xì)分輪廓提交給了組織者,希望能獲得最好的成績。
以下是結(jié)果,首先是心內(nèi)膜:

這個是心外膜:

擴(kuò)張u-net與心內(nèi)膜上的最新技術(shù)水平相當(dāng),并超過它在心外膜上的表現(xiàn)。擴(kuò)張DenseNet緊跟其后,僅有190K個參數(shù)。
總結(jié)
深度學(xué)習(xí)模型的表現(xiàn)有時候看起來似乎很神奇,但這是精心設(shè)計的結(jié)果。即使數(shù)據(jù)集很小,精心挑選的數(shù)據(jù)增強(qiáng)方案也可以讓深度學(xué)習(xí)模型更好地一般化。
根據(jù)這些想法,創(chuàng)建出了最先進(jìn)的模型來分割心臟MRI中的右心室。我非常高興地看到了擴(kuò)張DenseNet能夠在其他圖像分割評測上成功運(yùn)行。
內(nèi)存高效的擴(kuò)張DenseNet:密集連接的網(wǎng)絡(luò)有一個很大的缺點,它需要占用大量的內(nèi)存。 而TensorFlow的實現(xiàn)卻與眾不同,它將我們限制在16GB GPU并且一個批次具有3個圖像的8個層上。如果切換到之前提出的記憶高效的實現(xiàn)上的話,就可以創(chuàng)建出更深層次的體系架構(gòu)來。
相關(guān)推薦
機(jī)器人技術(shù)處于工業(yè) 4.0、人工智能和邊緣革命的前沿。讓我們看看如何創(chuàng)建 FPGA 控制的機(jī)器人手臂....
發(fā)表于 2023-10-24 17:26?
287次閱讀

機(jī)器人技術(shù)處于工業(yè) 4.0、人工智能和邊緣革命的前沿。讓我們看看如何創(chuàng)建 FPGA 控制的機(jī)器人手臂....
發(fā)表于 2023-10-24 17:15?
53次閱讀

如今,半導(dǎo)體元器件已成為電子應(yīng)用中不可或缺的一部分。半導(dǎo)體元器件的需求主要受生命周期較短的消費(fèi)電子影....
發(fā)表于 2023-10-24 16:43?
221次閱讀

過去三十年的發(fā)展,從互聯(lián)網(wǎng)到無線互聯(lián)網(wǎng),到傳感器,數(shù)字化轉(zhuǎn)型,大數(shù)據(jù)計算等等。這些逐步增強(qiáng)了軟件世界....
發(fā)表于 2023-10-24 14:34?
61次閱讀

? 全球嵌入式計算方案供應(yīng)廠商研華科技隆重推出高性能嵌入式工控機(jī)EPC-B3000系列。該系列包括搭....
發(fā)表于 2023-10-24 11:37?
97次閱讀

疫情等黑天鵝事件的頻發(fā),使得企業(yè)更加意識到數(shù)字化轉(zhuǎn)型的重要性,也因此加速了數(shù)字化轉(zhuǎn)型的需求。數(shù)字化轉(zhuǎn)....
發(fā)表于 2023-10-24 11:36?
136次閱讀

RISC-V 不再滿足于顛覆 CPU 行業(yè)。它正在對集成到 SoC 或高級封裝中的每種類型的處理器發(fā)....
發(fā)表于 2023-10-24 10:52?
213次閱讀

傳感新品 【南京郵電大學(xué):研發(fā)用于健康監(jiān)測的植入式柔性傳感器】 柔性傳感設(shè)備在人機(jī)交互、醫(yī)療監(jiān)測等方....
發(fā)表于 2023-10-24 10:26?
221次閱讀

異構(gòu)計算是指在一個系統(tǒng)中使用不同類型的處理器來執(zhí)行不同的計算任務(wù),以提高性能,效率和可靠性。隨著摩爾....
發(fā)表于 2023-10-24 10:17?
146次閱讀

這一人工智能(AI)程序不僅運(yùn)行速度快,還可在個人計算機(jī)上運(yùn)行,并從頭開始設(shè)計全新的結(jié)構(gòu)。研究人員表....
發(fā)表于 2023-10-24 09:56?
28次閱讀

工業(yè)制造領(lǐng)域中,產(chǎn)品質(zhì)量的保證是至關(guān)重要的任務(wù)之一。然而,人工的檢測方法不僅費(fèi)時費(fèi)力,而且容易受到主....
發(fā)表于 2023-10-24 09:29?
64次閱讀

2023的AIoT戰(zhàn)場,硝煙愈烈、內(nèi)卷更甚,也風(fēng)起云涌。 風(fēng)起于青萍之末,AIoT自融入千行百業(yè)以來....
發(fā)表于 2023-10-23 15:14?
58次閱讀

采用曲線掩模的另一個挑戰(zhàn)是需要將兩個掩??p合在一起以在晶圓上形成完整的圖像。對于高數(shù)值孔徑 EUV,....
發(fā)表于 2023-10-23 12:21?
112次閱讀

激光SLAM局部定位精度高但全局定位能力差且對環(huán)境特征不敏感,而視覺SLAM全局定位能力好但局部定....
發(fā)表于 2023-10-23 11:01?
102次閱讀

人力管理是決定最高經(jīng)營者人氣的核心要素。doug mcmillon和tim cook這樣的領(lǐng)導(dǎo)避免了....
發(fā)表于 2023-10-23 10:01?
201次閱讀

如何實現(xiàn)低能量人工智能?飛機(jī)如何在上層大氣層中實現(xiàn)機(jī)動飛行?用新型符合的測定方式能找出磁單極和縮子....
發(fā)表于 2023-10-23 09:49?
216次閱讀

中穎電子表示,第三季度受產(chǎn)品市場價格變動的影響,公司計入庫存產(chǎn)品的降價損失增加,影響了利潤。由于公司....
發(fā)表于 2023-10-23 09:42?
169次閱讀

近日,上海理工大學(xué)光子芯片研究院董毅博以第一作者身份在國際知名納米學(xué)期刊《納米快報》(Nano Le....
發(fā)表于 2023-10-23 09:17?
49次閱讀

2023年10月18日(北京時間),PyTorch 基金會正式宣布華為作為Premier會員加入基金....
發(fā)表于 2023-10-22 16:33?
454次閱讀

目前尚不清楚 Hugging Face 何時出現(xiàn)訪問限制問題。雅虎的報道稱,早在今年 5 月起,就已....
發(fā)表于 2023-10-22 15:51?
408次閱讀

二是制造業(yè)高質(zhì)量發(fā)展邁出堅實步伐。工信部大力推動先進(jìn)制造業(yè)加快發(fā)展,前三季度,高技術(shù)制造業(yè)投資同比增....
發(fā)表于 2023-10-22 15:48?
471次閱讀

據(jù)介紹,夯實人工智能技術(shù)底座為首要著力點。即通過科技創(chuàng)新重大項目,著力推動大模型算法、框架等基礎(chǔ)性原....
發(fā)表于 2023-10-22 15:45?
720次閱讀

人工智能雇傭作品保護(hù)模式的益處在于激勵雇主利用和指導(dǎo)人工智能進(jìn)行創(chuàng)作并承擔(dān)工作風(fēng)險。從我國人工智能行....
發(fā)表于 2023-10-22 15:26?
587次閱讀

基于人工神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)系統(tǒng)被稱為深度神經(jīng)網(wǎng)絡(luò)(DNN),由并聯(lián)神經(jīng)元組成的大量串聯(lián)層構(gòu)成。對大量....
發(fā)表于 2023-10-22 15:24?
133次閱讀

現(xiàn)在,特斯拉在瑞典再度面臨問題。金屬工人工會IF Metall代表在瑞典服務(wù)中心工作的120多名特斯....
發(fā)表于 2023-10-22 14:52?
270次閱讀

中國手機(jī)廠商集體進(jìn)軍大模型,并非一蹴而就,這與手機(jī)市場的格局轉(zhuǎn)變有著莫大關(guān)聯(lián)。過去幾年,伴隨著消費(fèi)者....
發(fā)表于 2023-10-22 14:45?
264次閱讀

每個主要工程學(xué)科都可以以類似的方式應(yīng)用生成式人工智能工具集,但也可以以自己獨特的方式應(yīng)用生成式人工智....
發(fā)表于 2023-10-22 10:59?
216次閱讀

隨著大模型技術(shù)的不斷進(jìn)步,以AI原生思維重構(gòu)應(yīng)用成為人工智能的發(fā)展趨勢。
發(fā)表于 2023-10-22 10:41?
375次閱讀

面向企業(yè)客戶啟動文心大模型4.0 API調(diào)用服務(wù)測試申請,服務(wù)超過17000家客戶,在各行各業(yè)的近5....
發(fā)表于 2023-10-22 10:38?
509次閱讀

10月17日,百度世界大會2023在北京舉辦。
發(fā)表于 2023-10-22 10:30?
758次閱讀

10月17日,以“生成未來”為主題的百度世界2023在北京首鋼園舉辦,百度首席技術(shù)官王海峰解讀文心大....
發(fā)表于 2023-10-22 10:26?
246次閱讀

目前的Transformer位置編碼方法,有絕對位置編碼(將位置信息融入到輸入)、相對位置編碼(將位....
發(fā)表于 2023-10-22 10:20?
66次閱讀

人形機(jī)器人在2023年吸足了業(yè)界的眼球,資本對它們的青睞也顯而易見。
發(fā)表于 2023-10-22 09:53?
60次閱讀

2023年10月19日,“2023第十一屆汽車與環(huán)境創(chuàng)新論壇”在上海盛大開幕,“第五屆金輯獎中國汽車....
發(fā)表于 2023-10-22 09:51?
584次閱讀

當(dāng)前,在這個充滿變革和機(jī)遇的時代,人工智能正成為國際競爭的新焦點。我國一直高度重視人工智能技術(shù)的發(fā)展....
發(fā)表于 2023-10-22 09:43?
113次閱讀

隨著ChatGPT強(qiáng)勢來襲,AI人工智能應(yīng)用層出不窮。智能化時代,數(shù)據(jù)量指數(shù)型增長,摩爾定律已經(jīng)不能....
發(fā)表于 2023-10-22 09:17?
246次閱讀

業(yè)界很多也都在研究相關(guān)的解決方案,以實現(xiàn)更為有效的數(shù)據(jù)運(yùn)算和更大的數(shù)據(jù)吞吐量,其中“存算一體”被認(rèn)為....
發(fā)表于 2023-10-22 09:17?
76次閱讀

機(jī)器人無疑是現(xiàn)在乃至今后長期大家都看好的常青藤朝陽產(chǎn)業(yè)。自2016年人機(jī)大戰(zhàn)結(jié)果所引爆的人工智能機(jī)器....
發(fā)表于 2023-10-22 08:14?
65次閱讀

Ciphey 是一個使用自然語言處理和人工智能的全自動解密/解碼/破解工具。 簡單地來講,你只需要輸....
發(fā)表于 2023-10-21 16:08?
84次閱讀

近日,以“AI融合創(chuàng)新·推動高質(zhì)量發(fā)展”為主題的2023深圳國際人工智能展在深圳福田區(qū)落幕。會上同期....
發(fā)表于 2023-10-21 15:56?
487次閱讀

應(yīng)用場景 江蘇榮澤信息科技股份有限公司(簡稱:榮澤科技),依托區(qū)塊鏈和人工智能的人才和技術(shù)儲備,專注....
發(fā)表于 2023-10-21 15:29?
148次閱讀

隨著人工智能(AI)技術(shù)的發(fā)展,其在生產(chǎn)計劃與排程(APS)領(lǐng)域的應(yīng)用也日益廣泛。APS是一種復(fù)雜的....
發(fā)表于 2023-10-21 11:33?
10次閱讀

人工智能領(lǐng)域包括8大重要應(yīng)用場景,包括:識別檢測、語音交互、AI芯片、自動駕駛、機(jī)器人、視頻解析、人....
發(fā)表于 2023-10-21 09:34?
205次閱讀

百度智能云已建立起國內(nèi)最繁榮的AI原生產(chǎn)業(yè)生態(tài)。在10月17日舉行的百度世界2023上,百度智能云宣....
發(fā)表于 2023-10-20 20:00?
252次閱讀

智慧園區(qū)是指借助信息技術(shù)、物聯(lián)網(wǎng)、人工智能等先進(jìn)技術(shù),將傳統(tǒng)園區(qū)升級為具備智能化、數(shù)字化、智能化、可....
發(fā)表于 2023-10-20 16:56?
167次閱讀

10月12-14日,2023第四屆深圳國際人工智能展會在深圳會展中心舉行。
發(fā)表于 2023-10-20 16:06?
428次閱讀

NVIDIA DOCA 是一個為 NVIDIA BlueField 系列 DPU 量身定做的軟件開發(fā)....
發(fā)表于 2023-10-20 15:45?
108次閱讀

面向未來,中國移動將共同推動戰(zhàn)略性新興產(chǎn)業(yè)發(fā)展,共同構(gòu)筑高水平產(chǎn)業(yè)協(xié)同平臺,共同培育高質(zhì)量現(xiàn)代產(chǎn)業(yè)集....
發(fā)表于 2023-10-20 15:29?
184次閱讀

實現(xiàn)通用人工智能(Artificial General Intelligence,AGI)是一個長遠(yuǎn)....
發(fā)表于 2023-10-20 14:45?
53次閱讀

但業(yè)內(nèi)人士分析說,人工智能(ai)也具有寶貴的商業(yè)利用價值,如果限制嚴(yán)格,可能會對專注于人工智能聊天....
發(fā)表于 2023-10-20 14:39?
261次閱讀

富士康(正式名稱為鴻??萍技瘓F(tuán))一直在通過進(jìn)軍電動汽車、數(shù)字健康和機(jī)器人等新行業(yè)來擴(kuò)大業(yè)務(wù)。
大和駐....
發(fā)表于 2023-10-20 14:38?
681次閱讀

10月17日,以「大模型驅(qū)動智能駕駛:未來已來!」為主題的2023廣汽集團(tuán)1024技術(shù)論壇正式舉辦,....
發(fā)表于 2023-10-20 11:45?
298次閱讀

在訓(xùn)練過程中進(jìn)行相應(yīng)微調(diào)是必不可少的。過擬合現(xiàn)象在深度學(xué)習(xí)中屢見不鮮,如果網(wǎng)絡(luò)模型出現(xiàn)此類問題,那么....
發(fā)表于 2023-10-20 11:26?
41次閱讀

美國的新禁令英偉達(dá)的占有中國市場造成損失的可能性,黃仁勛強(qiáng)調(diào),是所有公司必須竭盡全力,爭取商務(wù),所有....
發(fā)表于 2023-10-20 11:09?
288次閱讀

因此,有分析認(rèn)為,openai在1年的快速成長過程中,經(jīng)歷了罕見的挫折。部署和維持生成人工智能所需的....
發(fā)表于 2023-10-20 11:06?
186次閱讀

影響人工智能未來的4個數(shù)據(jù)中心存儲挑戰(zhàn) ● 建設(shè)新數(shù)據(jù)中心的成本 ● 建設(shè)新數(shù)據(jù)中心需要時間 ● 現(xiàn)....
發(fā)表于 2023-10-20 10:32?
78次閱讀

“基于人工智能的cadence cerebrus和更廣泛的cadence數(shù)字進(jìn)程是為復(fù)雜的下一代設(shè)計....
發(fā)表于 2023-10-20 10:04?
76次閱讀

本期評測活動名單如下:
jf_84491108 jf_04294759 jf_49040007梁堅斌chiplet 管理員...
發(fā)表于 2023-07-28 10:50?
4302次閱讀

最先進(jìn)的人工智能模型在不到五年的時間內(nèi)經(jīng)歷了超過 5,000 倍的規(guī)模擴(kuò)展。這些 AI 模型嚴(yán)重依賴復(fù)雜的計算和大量內(nèi)...
發(fā)表于 2023-07-28 10:10?
546次閱讀

由于大上周開始出差了兩周,就鴿了兩周,對大家說句抱歉
回來趕緊下載了SDK,這里不得不吐槽下坑爹的百度云
SDK...
發(fā)表于 2023-06-27 21:14?
172次閱讀

一、Disply簡易API
1.1 簡易API簡介
EASY EAI api將DRM的使用方法簡化封裝起來,使用戶簡單快速的使...
發(fā)表于 2023-06-24 01:02?
587次閱讀

本期評測活動名單如下:
Kai-Zhao jf_45511599 崔英武高敬義 熊治坤 管理員已通過...
發(fā)表于 2023-06-21 14:41?
8130次閱讀

本文在官方文檔和官方網(wǎng)盤資料的基礎(chǔ)上,選取了最簡化的開發(fā)環(huán)境搭建和調(diào)試運(yùn)行操作,并按照當(dāng)前VMWare Workstati...
發(fā)表于 2023-06-17 21:33?
607次閱讀

深度學(xué)習(xí)(Deep Learning)在各種不同應(yīng)用領(lǐng)域上強(qiáng)大的效能令人驚嘆,影像辨識是目前深度學(xué)習(xí)技術(shù)應(yīng)用最廣泛的,大量的...
發(fā)表于 2023-06-15 07:51?
55次閱讀

首先,非常感謝電子發(fā)燒友論壇組織本次試用活動,同時也感謝廣州靈眸科技有限公司為我們提供的 EASY EAI Nano...
發(fā)表于 2023-06-10 12:26?
717次閱讀

大家好,今天來分享我在EASY EAI Nano人工智能開發(fā)套件中環(huán)境準(zhǔn)備和架設(shè)的過程,希望對其他開發(fā)者起到避坑、縮...
發(fā)表于 2023-06-10 10:32?
411次閱讀

不知道為什么上一篇文章沒有顯示出來:【EASY EAI Nano人工智能開發(fā)套件試用體驗】RKNN YOLOV5 例程...
發(fā)表于 2023-06-01 12:30?
178次閱讀

評論