一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA Clara AGX深度學(xué)習減少MRI掃描次數(shù)

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-17 16:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

磁共振成像( MRI )是一種有用的軟組織或分子擴散成像技術(shù)。然而,獲取 MR 圖像的掃描時間可能相當長。有幾種方法可以用來減少掃描時間,包括矩形視場( RFOV )、部分傅里葉成像和采樣截斷。這些方法要么導(dǎo)致信噪比( SNR )降低,要么導(dǎo)致分辨率降低。有關(guān)更多信息,請參閱k 空間教程:更好地理解 k 空間的 MRI 教育工具。

當使用采樣截斷技術(shù)以減少掃描和數(shù)據(jù)傳輸時間時,吉布斯現(xiàn)象也稱為振鈴或截斷偽影,會出現(xiàn)在結(jié)果圖像中。通常,通過平滑圖像來消除吉布斯現(xiàn)象,從而降低圖像分辨率。

在這篇文章中,我們探索了一種使用 NVIDIA Clara AGX 開發(fā)者套件的深度學(xué)習方法,以消除磁共振圖像中的吉布斯現(xiàn)象和噪聲,同時保持高圖像分辨率。

信號可以表示為頻率和相位變化的正弦波的無限和。 MR 圖像通過使用相對較少的 h ARM 電子近似,從而導(dǎo)致吉布斯現(xiàn)象的存在。圖 1 顯示了一個類似的一維情況,即僅用幾個 h ARM 電子近似方波,右側(cè) MRI 模型中的吉布斯現(xiàn)象。

poYBAGJbzKSAH5onAADVpqwjTNQ793.png

圖 1 。(左)截斷偽影,也稱為吉布斯現(xiàn)象,僅使用五個 h ARM 源近似方波時顯示:Wikipedia. (右)二維 MRI 模型中顯示的吉布斯現(xiàn)象。

數(shù)據(jù)集和模型

我們擴展了現(xiàn)有的用于 Gibbs 和噪聲消除的深度學(xué)習方法 dldegibbs 的工作。有關(guān)更多信息,請參閱擴散磁共振成像中 Gibbs 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練與去噪。該白皮書的代碼在/mmuckley/dldegibbs GitHub repo 中。

在他們的工作中,大約 130 萬張模擬吉布斯現(xiàn)象和高斯噪聲的 ImageNet 圖像被用作訓(xùn)練數(shù)據(jù)。在我們的項目中,我們測試了 Muckley 等人開發(fā)的一些預(yù)訓(xùn)練 dldegibbs 模型,并使用開放圖像數(shù)據(jù)集訓(xùn)練了我們自己的模型。我們最后用 MRI 擴散數(shù)據(jù)測試了不同的模型。

為什么要模擬吉布斯現(xiàn)象?

與其他網(wǎng)絡(luò)相比,使用 dldegibbs 的一個好處是它不需要訪問原始 MRI 數(shù)據(jù)和系統(tǒng)參數(shù)。該數(shù)據(jù)很難獲得,因為該數(shù)據(jù)的存儲要求很高,并且在圖像重建后通常不會保留該數(shù)據(jù)。

另一個好處是不需要專有信息或與供應(yīng)商簽署研究協(xié)議。此外,還可以節(jié)省收集和分發(fā)醫(yī)療數(shù)據(jù)的時間,這可能是一項挑戰(zhàn)。使用異構(gòu)數(shù)據(jù)集(如 ImageNet 或 Open Images )對模型進行訓(xùn)練有可能使該方法應(yīng)用于其他 MRI 序列或成像模式,因為訓(xùn)練數(shù)據(jù)本質(zhì)上是對象不可知的。

dldegibbs 的數(shù)據(jù)加載程序為每個加載的映像創(chuàng)建兩個映像:一個訓(xùn)練映像和一個目標映像。在傅里葉域中模擬原始圖像上的吉布斯現(xiàn)象生成訓(xùn)練圖像。將調(diào)整原始圖像的大小并將其用作目標圖像。數(shù)據(jù)加載程序包括標準數(shù)據(jù)增強方法(隨機翻轉(zhuǎn)、裁剪),然后是隨機相位模擬和橢圓裁剪。接下來,對原始圖像進行 FFT 處理,進行 Gibbs 裁剪,添加復(fù)高斯噪聲,并模擬部分傅里葉變換。最后,應(yīng)用逆 FFT 對圖像進行歸一化處理。圖 2 顯示了模擬管道。

pYYBAGJbzKWAUKX0AABMWr4ZCDw973.png

圖 2 。吉布斯現(xiàn)象方框圖與噪聲模擬。

在這個項目中,我們使用了由 170 多萬張訓(xùn)練圖像組成的開放圖像數(shù)據(jù)集。然后,我們在由 170 名患者( 996424 個軸向切片)[5]組成的磁共振擴散數(shù)據(jù)集上測試訓(xùn)練模型。圖 3 顯示了一個示例 MRI 擴散切片。

poYBAGJbzKaAOUyLAAD85yGWQsY595.png

圖 3 。測試集中使用的 MRI 擴散軸向切片示例。

結(jié)果

圖 4 顯示了使用 dldegibbs 模型測試的驗證圖像示例,該模型使用完全開放的圖像訓(xùn)練數(shù)據(jù)集進行訓(xùn)練。圖 5 顯示了相應(yīng)的錯誤。訓(xùn)練圖像在傅里葉空間從 256 × 256 裁剪到 100 × 100 。該模型未模擬部分傅里葉成像。

pYYBAGJbzKeAQfvYAADlAEF9hKo735.png

圖 4 。示例 dldegibbs 輸入(數(shù)據(jù))、輸出(估計)和來自 Open Images 驗證數(shù)據(jù)集的目標圖像。

poYBAGJbzKiATM-JAAIWKkzFA4E614.png

圖 5 。數(shù)據(jù)輸入和目標之間的誤差(左)和估計輸出和目標之間的誤差(右)。

數(shù)據(jù)與目標之間的平均 MSE 為 13 。 2 ± 9 。 2% 。估計值與目標值之間的平均誤差為 2 。 9 ± 2 。 7% 。對于此圖像, dldegibbs 模型可使圖像質(zhì)量提高 10% 以上。

概括

在這篇文章中,我們提供了一個可以與 Clara AGX 開發(fā)工具包一起使用的解決方案,使用以下資源從 MR 圖像中去除噪聲和吉布斯現(xiàn)象:

一種商用數(shù)據(jù)集,稱為 Open Images

一個開源的 ML 模型,稱為 dldegibbs

關(guān)于作者

Emily Anaya 是 NVIDIA Clara AGX團隊的實習生,致力于消除磁共振成像(MRI)中的吉布斯現(xiàn)象和噪音。她也是一名博士。斯坦福大學(xué)電子工程專業(yè)的候選人,她的顧問是克雷格·萊文博士。她的研究重點是解決正電子發(fā)射斷層成像和磁共振成像(PET/MRI)組合中的光子衰減問題。

Emmett McQuinn 是 NVIDIA Clara AGX 團隊的高級工程師。埃米特之前是一家助聽器初創(chuàng)公司的創(chuàng)始工程師,領(lǐng)導(dǎo)機器學(xué)習DSP 團隊,具有自主機器人、科學(xué)可視化和超低功耗神經(jīng)網(wǎng)絡(luò)芯片的工作經(jīng)驗。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    459

    文章

    52383

    瀏覽量

    439113
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4812

    瀏覽量

    103281
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5284

    瀏覽量

    106124
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA NVLink 深度解析

    訓(xùn)練萬億參數(shù)人工智能模型至關(guān)重要 ^4^。本深度分析報告旨在全面探討 NVIDIA NVLink,涵蓋其定
    的頭像 發(fā)表于 05-06 18:14 ?1329次閱讀

    邊緣AI MPU深度盤點:品牌、型號與技術(shù)特性全解析

    三個維度,結(jié)合典型應(yīng)用場景,對主流邊緣AI MPU進行全面盤點。 一、國際品牌:技術(shù)領(lǐng)先,場景覆蓋全面 NVIDIA(英偉達) 代表型號 :Jetson系列(Orin Nano/NX/AGX
    的頭像 發(fā)表于 04-30 17:27 ?2134次閱讀

    交通運輸領(lǐng)先企業(yè)率先采用NVIDIA Cosmos平臺

    支撐自動駕駛汽車開發(fā)有三個關(guān)鍵計算平臺:NVIDIA DGX 平臺用于在數(shù)據(jù)中心訓(xùn)練基于 AI 的堆棧;運行在NVIDIA OVX 平臺上的NVIDIA Omniverse 平臺,用于仿真和合成數(shù)據(jù)的生成;以及車載計算平臺
    的頭像 發(fā)表于 01-09 16:02 ?520次閱讀

    NPU在深度學(xué)習中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習
    的頭像 發(fā)表于 11-14 15:17 ?1844次閱讀

    Pytorch深度學(xué)習訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?624次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習</b>訓(xùn)練的方法

    GPU深度學(xué)習應(yīng)用案例

    GPU在深度學(xué)習中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習
    的頭像 發(fā)表于 10-27 11:13 ?1265次閱讀

    AI大模型與深度學(xué)習的關(guān)系

    AI大模型與深度學(xué)習之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2818次閱讀

    GPU計算主板學(xué)習資料第735篇:基于3U VPX的AGX Xavier GPU計算主板 信號計算主板 視頻處理 相機信號

    GPU計算主板學(xué)習資料第735篇:基于3U VPX的AGX Xavier GPU計算主板 信號計算主板 視頻處理 相機信號
    的頭像 發(fā)表于 10-23 10:09 ?597次閱讀
    GPU計算主板<b class='flag-5'>學(xué)習</b>資料第735篇:基于3U VPX的<b class='flag-5'>AGX</b> Xavier GPU計算主板 信號計算主板 視頻處理 相機信號

    NVIDIA推出全新深度學(xué)習框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習框架可用于打造自動駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1088次閱讀

    深度學(xué)習模型量化方法

    深度學(xué)習模型量化是一種重要的模型輕量化技術(shù),旨在通過減少網(wǎng)絡(luò)參數(shù)的比特寬度來減小模型大小和加速推理過程,同時盡量保持模型性能。從而達到把模型部署到邊緣或者低算力設(shè)備上,實現(xiàn)降本增效的目標。
    的頭像 發(fā)表于 07-15 11:01 ?1061次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習</b>模型量化方法

    深度學(xué)習中的時間序列分類方法

    時間序列分類(Time Series Classification, TSC)是機器學(xué)習深度學(xué)習領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動識別、系統(tǒng)監(jiān)測、金融預(yù)測、醫(yī)療診斷等多個領(lǐng)域。隨著深度
    的頭像 發(fā)表于 07-09 15:54 ?2066次閱讀

    深度學(xué)習中的無監(jiān)督學(xué)習方法綜述

    深度學(xué)習作為機器學(xué)習領(lǐng)域的一個重要分支,近年來在多個領(lǐng)域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領(lǐng)域。然而,深度學(xué)習模型
    的頭像 發(fā)表于 07-09 10:50 ?1656次閱讀

    深度學(xué)習與nlp的區(qū)別在哪

    深度學(xué)習和自然語言處理(NLP)是計算機科學(xué)領(lǐng)域中兩個非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習與NLP的區(qū)別。 深度
    的頭像 發(fā)表于 07-05 09:47 ?1596次閱讀

    深度學(xué)習中的模型權(quán)重

    深度學(xué)習這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習的基石,更是模型智能的源泉。本文將從模型權(quán)重的定義、作用、優(yōu)化、管理以及應(yīng)用等多個方面,深入探討
    的頭像 發(fā)表于 07-04 11:49 ?4039次閱讀

    深度學(xué)習常用的Python庫

    深度學(xué)習作為人工智能的一個重要分支,通過模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來解決復(fù)雜問題。Python作為一種流行的編程語言,憑借其簡潔的語法和豐富的庫支持,成為了深度學(xué)習研究和應(yīng)用的首選工具。
    的頭像 發(fā)表于 07-03 16:04 ?1129次閱讀