一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用全卷積神經(jīng)網(wǎng)絡(luò)生成多深度三維全息

西安中科微星 ? 來(lái)源:西安中科微星 ? 作者:西安中科微星 ? 2024-06-21 14:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

空間光調(diào)制器是一種在主動(dòng)控制下利用自身屬性對(duì)輸入光的振幅、相位等參量做調(diào)制輸出的光學(xué)器件,通過(guò)對(duì)光波波前、光波波束進(jìn)行量化及指向性的控制,在最終接受面獲得預(yù)期的光場(chǎng)分布。將空間光調(diào)制器應(yīng)用在光學(xué)神經(jīng)網(wǎng)絡(luò)已經(jīng)過(guò)幾十年的發(fā)展,并且隨著空間光調(diào)制器調(diào)制精度的提升以及計(jì)算算法的不斷優(yōu)化,光學(xué)神經(jīng)網(wǎng)絡(luò)的巨大潛力也不斷地被挖掘,在機(jī)器視覺(jué)、醫(yī)學(xué)影像處理、光學(xué)傳感器網(wǎng)絡(luò)等領(lǐng)域都有著潛在的應(yīng)用前景。

論文信息

wKgZomZ1E0-AMTKlAAJttB4LLz4727.png

本文介紹了一種利用全卷積神經(jīng)網(wǎng)絡(luò)(FCN)生成多深度相位全息的方法。該方法主要涉及一個(gè)前向-后向衍射框架來(lái)計(jì)算多深度衍射場(chǎng),以及一個(gè)逐層替換方法(L2RM)來(lái)處理遮擋關(guān)系。由前者計(jì)算的衍射場(chǎng)被輸入到精心設(shè)計(jì)的FCN中,它利用其強(qiáng)大的非線性擬合能力來(lái)生成3D場(chǎng)景的多深度全息圖。后者可以通過(guò)補(bǔ)充被遮擋物體的信息,使場(chǎng)景重建中不同層的邊界進(jìn)行平滑處理,從而提高全息圖的重建質(zhì)量。實(shí)驗(yàn)中通過(guò)將計(jì)算全息圖(computer-generated hologram,CGH)加載到核心組件空間光調(diào)制器(spatial light modulator,SLM)上,實(shí)現(xiàn)刷新和動(dòng)態(tài)3D顯示。

部分實(shí)驗(yàn)過(guò)程及實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)中使用波長(zhǎng)為638(±8)nm、功率為30mW的非偏振半導(dǎo)體激光器,如圖1所示,光纖的輸出端放置在焦距為100mm的準(zhǔn)直透鏡焦點(diǎn)處來(lái)獲得平面波,使用中性密度濾波器作為衰減器和偏振器來(lái)獲得線偏光。旋轉(zhuǎn)半波片(HWP)使得光的偏振方向與LCOS配向角方向一致,接著插入一個(gè)矩形孔徑,得到矩形輪廓。利用空間光調(diào)制器(中科微星 FSLM-4K70-P02)對(duì)入射光進(jìn)行相位調(diào)制和反射,再使用焦距為100mm的傅里葉透鏡進(jìn)一步放大重建場(chǎng)景。采用空間濾波器,使所需的衍射階通過(guò),其他衍射階濾波。重建后的放大3D場(chǎng)景使用相機(jī)拍攝。

wKgZomZ1E2SASpN0AAsCHvb0c_4621.png圖1 實(shí)驗(yàn)裝置(相位型空間光調(diào)制器,型號(hào):FSLM-4K70-P02)

實(shí)驗(yàn)中所采用空間光調(diào)制器的參數(shù)規(guī)格如下:

wKgaomZ1E3SAD-5kAAHCiJmRCjU378.png

型號(hào)
FSLM-4K70-P02
調(diào)制類(lèi)型
相位型
液晶類(lèi)型
反射式 灰度等級(jí) 8位,256階
像素?cái)?shù)
4094×2400
像元大小 3.74μm
有效區(qū)域
0.7"
15.31mm×8.98mm
相位范圍 2π@633nm
填充因子 90% 光學(xué)利用率 60%@532nm
配向角
衍射效率 >97%@32階 633nm
刷新頻率
60Hz 光學(xué)利用率 35%@532nm
電源輸入
12V 2A 響應(yīng)時(shí)間
上升10.8ms,下降18.5ms
損傷閾值
2W/cm2 數(shù)據(jù)接口
HDMI

wKgaomZ1E3yAKG7cABfcve3pcPY656.png圖2三維圖形數(shù)據(jù)集的生成。A)3D隨機(jī)場(chǎng)景。B)取樣過(guò)程。C)強(qiáng)度圖像。D)深度圖像。E)三維圖形數(shù)據(jù)集。

wKgaomZ1E4yAJG2tAA16j_QnYR0348.png圖3 用FCN生成多深度全息圖。A)利用前后衍射框架計(jì)算多深度衍射場(chǎng)。B)FCN的結(jié)構(gòu)。C)多深度誤差的計(jì)算。

wKgZomZ1E5uAdggsADTLDPHYrBo834.png圖4 重建圖像的質(zhì)量比較。A)目標(biāo)場(chǎng)景。B) 分別對(duì)應(yīng)標(biāo)準(zhǔn)方法和L2RM的數(shù)值重建。C) 分別對(duì)應(yīng)標(biāo)準(zhǔn)方法和L2RM的光學(xué)重建。

wKgZomZ1FEGAWc88ABUJ4SUjnpE678.png圖5 復(fù)雜的三維場(chǎng)景和相應(yīng)的全息圖。A)強(qiáng)度圖像和B)三維場(chǎng)景的深度圖像。C)由FCN生成的多深度全息圖。

wKgZomZ1FmKACCBwACMdfYGfxhM158.png圖6 A) WH、B) DPH和C) L2RM的數(shù)值重建和光學(xué)重建。第1、3、5行的圖像表示數(shù)值重建,而第2、4、6行表示光學(xué)重建。在第1列和第2列中,相機(jī)分別聚焦于“足球-吉他”的前聚焦平面(“足球”)和后聚焦平面(“吉他”)。在第3列和第4列中,相機(jī)分別聚焦于“飛機(jī)-狗”的前對(duì)焦平面(“飛機(jī)”)和后對(duì)焦平面(“狗”)。

wKgaomZ1FmyAWVm5ABxjce9q0dA321.png圖7 在不同深度的平面上重建對(duì)象。

寫(xiě)在最后

光神經(jīng)網(wǎng)絡(luò)因具有并行大規(guī)模計(jì)算、低功耗運(yùn)行以及快速響應(yīng)的潛力而受人們的廣泛關(guān)注,而空間光調(diào)制器作為衍射器件在衍射神經(jīng)網(wǎng)絡(luò)中扮演著重要角色,并且應(yīng)用在眾多領(lǐng)域中,例如AR/VR的3D全息成像計(jì)算、生物醫(yī)學(xué)成像、光學(xué)傳感等。基于衍射神經(jīng)網(wǎng)絡(luò)的可編程能力,未來(lái)有望實(shí)現(xiàn)更高性能的衍射神經(jīng)網(wǎng)絡(luò)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    GLAD應(yīng)用:體全息光柵模擬

    和Brady提出體全息成像技術(shù),采用體全息光柵作為選擇成像元件,對(duì)物體進(jìn)行實(shí)時(shí)三維成像。與采用常規(guī)光學(xué)透鏡的成像系統(tǒng)相比,體全息成像技術(shù)僅利用
    發(fā)表于 05-15 09:32

    自動(dòng)駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個(gè)方面:局部連接、權(quán)值共享、卷積核以及池化。這些技術(shù)共同作用,使得C
    的頭像 發(fā)表于 04-07 09:15 ?363次閱讀
    自動(dòng)駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個(gè)神經(jīng)元構(gòu)成,神經(jīng)元之間通過(guò)權(quán)重連接。信號(hào)在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) :
    的頭像 發(fā)表于 02-12 15:53 ?672次閱讀

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    深度學(xué)習(xí)入門(mén):簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1202次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)工具與框架

    卷積神經(jīng)網(wǎng)絡(luò)因其在圖像和視頻處理任務(wù)中的卓越性能而廣受歡迎。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,多種實(shí)現(xiàn)工具和框架應(yīng)運(yùn)而生,為研究人員和開(kāi)發(fā)者提供了強(qiáng)大的支持。 TensorFlow 概述
    的頭像 發(fā)表于 11-15 15:20 ?671次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時(shí)的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴(lài)于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個(gè)復(fù)雜的過(guò)程,涉及到多個(gè)超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)架構(gòu)參數(shù)
    的頭像 發(fā)表于 11-15 15:10 ?1209次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用

    自然語(yǔ)言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語(yǔ)音處理等領(lǐng)域取
    的頭像 發(fā)表于 11-15 14:58 ?807次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱(chēng)為連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個(gè)神經(jīng)元都與下一層的所有
    的頭像 發(fā)表于 11-15 14:53 ?1878次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來(lái)在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。
    的頭像 發(fā)表于 11-15 14:52 ?846次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類(lèi)包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedf
    的頭像 發(fā)表于 11-15 14:47 ?1785次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    不熟悉神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí),或者想了解神經(jīng)網(wǎng)絡(luò)如何優(yōu)化加速實(shí)驗(yàn)研究,請(qǐng)繼續(xù)閱讀,探索基于深度學(xué)習(xí)的現(xiàn)代智能化實(shí)驗(yàn)的廣闊應(yīng)用前景。什么是神經(jīng)網(wǎng)絡(luò)?“人工
    的頭像 發(fā)表于 11-01 08:06 ?666次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    許多種類(lèi)型,但本文將只關(guān)注卷積神經(jīng)網(wǎng)絡(luò)(CNN),其主要應(yīng)用領(lǐng)域是對(duì)輸入數(shù)據(jù)的模式識(shí)別和對(duì)象分類(lèi)。CNN是一種用于深度學(xué)習(xí)的 人工神經(jīng)網(wǎng)絡(luò) 。這種網(wǎng)
    發(fā)表于 10-24 13:56

    FPGA在深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為其核心算法之一,在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-24 10:42 ?1206次閱讀