一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹一個用于點云生成的概率模型

工程師鄧生 ? 來源:CVPR 2021 ? 作者:Luo, Shitong, and Wei ? 2022-09-09 10:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要ce912ae4-2fcc-11ed-ba43-dac502259ad0.png??

我們提出了一個用于點云生成的概率模型,它可以被用于多種 3D 視覺任務的基礎,例如形狀補全、上采樣、合成和數(shù)據(jù)增強。受非平衡熱力學中擴散過程的啟發(fā),我們將點云中的點視為與熱庫(heat bath)接觸的熱力學系統(tǒng)中的粒子,其從原始分布擴散成為噪聲分布。因此,點云生成相當于學習將噪聲分布轉(zhuǎn)換為所需形狀分布的反向擴散過程。

具體來說,我們提出將點云的反向擴散過程建模為以某種隱式形狀(shape latent)為條件的馬爾可夫鏈。我們推導出訓練時封閉形式的變分邊界,并提供了模型的實現(xiàn)。實驗結(jié)果表明,我們的模型在點云生成和自動編碼方面取得了有競爭力的表現(xiàn)。

主要貢獻ce912ae4-2fcc-11ed-ba43-dac502259ad0.png??

文章受非平衡熱力學中的擴散過程啟發(fā),提出了一種新的點云概率生成模型。 ? 作者從點云基于形狀的條件似然的變分下限推導出一個易于處理的訓練目標。

大量實驗表明我們的模型實現(xiàn)了在點云生成和自動編碼有競爭力的性能

方法概述
ce912ae4-2fcc-11ed-ba43-dac502259ad0.png ? ????
本文中作者將點云看作是從概率分布中取樣生成的,每一個點都是該概率分布的獨立同分布(i.i.d)采樣。類似于圖像的擴散概率模型,當我們向點云引入噪音時,點云會逐步從與形狀有關(guān)的復雜分布變?yōu)楦咚狗植嫉脑胍簦@一過程被稱作正向擴散過程。點云的生成模型可以被視作是如圖二所示的逆向擴散過程:根據(jù)一個高斯分布取樣作為噪音點云,訓練一個神經(jīng)網(wǎng)絡以形狀為條件逐步對該噪音點云減噪,直至點云恢復其本來的形狀。
cebcd392-2fcc-11ed-ba43-dac502259ad0.png ???

Figure 2 展示了從噪音點云逆擴散生成點云的過程可以由一個馬爾科夫鏈模型表示。點云中的每一個點由 x(T) 開始以轉(zhuǎn)移概率 p****θ(x(t-1)|x(t),z) 逐步減噪(逆擴散)為目標點云 x(0)。其中 θ 表示可學習的神經(jīng)網(wǎng)絡參數(shù)參數(shù),z 表示與形狀有關(guān)的潛變量。

生成點云時,從正態(tài)分布取樣w,經(jīng)先驗flow模型映射為形狀變量z。同時從正態(tài)分布取樣噪音點云 x(T)。通過一系列逆向擴散過程,噪音點云以形狀z為條件逐漸減噪為目標點云 x(0)。

cee42bb8-2fcc-11ed-ba43-dac502259ad0.png ????

訓練時,數(shù)據(jù)集中的點云經(jīng)過編碼器 φ 編碼為形狀潛碼 z 正態(tài)分布的均值和方差,再使用與變分編碼器(VAE)中的重新參數(shù)化技巧相同的方式取樣形狀潛碼 z。如下圖所示,輸入點云隨后經(jīng)過一系列前向擴散過程逐漸變?yōu)樵胍酎c云。訓練目標函數(shù)采用條件似然概率的變分下限,以最大化似然訓練數(shù)據(jù)集的似然概率。

cf070a48-2fcc-11ed-ba43-dac502259ad0.png ????

需要注意的是,變分自動編碼器VAE的先驗概率選用正態(tài)分布,本文應用 Flow 模型將簡單的正態(tài)分布映射 p(w) 到更復雜的分布模型 p(z)。訓練時,q(z|x(0) 經(jīng)過逆向的 Flow 映射回 w, 損失函數(shù)包含 w 的先驗概率分布和后驗概率分布之間 KL 散度。

實驗結(jié)果

ce912ae4-2fcc-11ed-ba43-dac502259ad0.png ? ????

文章選用 ShapeNet 數(shù)據(jù)集進行點云生成實驗、點云重建以及點云特征提取實驗。 Table 1 總結(jié)了擴散概率模型與包括GAN、Flow模型在內(nèi)的其他點云生成方法相比在最小匹配距離 (MMD), 覆蓋分數(shù) (COV), 最近鄰分類器準確率(1-NNA)以及 Jenson-Shannon 散度 (JSD) 上可以 SOTA 方法媲美。

cf3b756c-2fcc-11ed-ba43-dac502259ad0.png ????

下圖展示了一些生成點云的樣例,包含了飛機和椅子兩個分類。

cf546a18-2fcc-11ed-ba43-dac502259ad0.png ???

Table 2 列出了擴散概率模型自動編碼重建性能。其重建點云與原始點云之間的 Chamfer 距離(CD) 和 動土距離 (MD) 也可以達到與 SOTA 相近的數(shù)值。 cf7df432-2fcc-11ed-ba43-dac502259ad0.png ????

下圖給出了幾個點云重構(gòu)的例子,最左側(cè)一列是真實點云,然后依次是擴散模型、ShapeGF 以及 AtlasNet。

cfa2ace6-2fcc-11ed-ba43-dac502259ad0.png ???

Table 3 顯示擴散概率模型與其他模型在表征學習方面的比較。只使用一個線性SVM作為分類器,擴散概率模型學習的表征在ModelNet10和ModelNet40數(shù)據(jù)集上分別可以達到94.2%和87.6%的準確率,與SOTA方法相近或更好。 cfc3e776-2fcc-11ed-ba43-dac502259ad0.png ???

Figure 6展示在潛變量空間插值變換獲得相應點云的變化:

cfe43382-2fcc-11ed-ba43-dac502259ad0.png


總結(jié)

文章將擴散概率模型用于點云生成,推理時以形狀采樣為條件將噪音點云逆向擴散為目標點云;訓練時將輸入正向擴散為噪音點云,以從點云似然變分下限推導出的損失函數(shù)訓練模型。? 實驗表明這樣的擴散模型實現(xiàn)了在點云生成、自動編碼以及表征學習任務實現(xiàn)了有競爭力的性能。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3808

    瀏覽量

    138045
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2209

    瀏覽量

    76803
  • MMD
    MMD
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    7083

原文標題:3D點云生成的擴散概率模型(CVPR 2021)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛中常提的“”是啥?

    啥?對自動駕駛有何影響? 啥? (Point Cloud)是種在三維空間中由大量離
    的頭像 發(fā)表于 05-21 09:04 ?306次閱讀
    自動駕駛中常提的“<b class='flag-5'>點</b><b class='flag-5'>云</b>”是<b class='flag-5'>個</b>啥?

    基于stm32h743IIK在cubeai上部署keras模型模型輸出結(jié)果都是同概率數(shù)組,為什么?

    基于stm32h743IIK,在cubeai上部署keras模型模型輸出結(jié)果都是同概率數(shù)組,一點也搞不明白,看社區(qū)也有相同的問題,但沒
    發(fā)表于 03-10 06:42

    運行DLP_LightCrafter_4500_3D_Scan_Application.exe的時候運行第7步時我只生成了為數(shù)不多的,怎么解決?

    我現(xiàn)在遇到了問題,在我運行DLP_LightCrafter_4500_3D_Scan_Application.exe的時候運行第7步時我只生成了為數(shù)不多的
    發(fā)表于 03-03 07:51

    對于結(jié)構(gòu)光測量、3D視覺的應用,使用100%offset的lightcrafter是否能用于生成的應用?

    你好,我有些對于offset的疑問,希望能夠得到解答。 對于結(jié)構(gòu)光測量、3D視覺的應用,使用100%offset的lightcrafter是否能用于
    發(fā)表于 02-28 06:20

    科技獲亞馬遜科技生成式AI能力認證

    的應用上展現(xiàn)出了卓越的能力。 聚科技通過整合亞馬遜科技的先進技術(shù),從應用范圍確定、模型選擇、數(shù)據(jù)處理、模型調(diào)優(yōu)到應用集成與部署,為企業(yè)提供全方位的
    的頭像 發(fā)表于 02-19 10:33 ?493次閱讀

    科技榮獲亞馬遜科技生成式AI能力認證

    Bedrock等技術(shù),從應用范圍、模型選擇、數(shù)據(jù)處理、模型調(diào)優(yōu)到應用集成與部署等方面,助力企業(yè)加速生成式AI應用落地。此外,聚科技還基于亞馬遜
    的頭像 發(fā)表于 02-14 16:07 ?396次閱讀

    科技榮獲亞馬遜科技生成式AI能力認證 助力企業(yè)加速生成式AI應用落地

    北京 ——2025 年 2 月 14 日 管理服務提供商聚科技獲得亞馬遜科技生成式AI能力認證,利用亞馬遜科技全托管的
    發(fā)表于 02-14 13:41 ?151次閱讀

    AN-715::走近IBIS模型:什么是IBIS模型?它們是如何生成的?

    電子發(fā)燒友網(wǎng)站提供《AN-715::走近IBIS模型:什么是IBIS模型?它們是如何生成的?.pdf》資料免費下載
    發(fā)表于 01-13 14:21 ?0次下載
    AN-715::走近IBIS<b class='flag-5'>模型</b>:什么是IBIS<b class='flag-5'>模型</b>?它們是如何<b class='flag-5'>生成</b>的?

    阿里通義萬相2.1視頻生成模型震撼發(fā)布

    近日,阿里旗下的通義萬相迎來了重要升級,正式推出了全新的萬相2.1視頻生成模型。這創(chuàng)新成果標志著阿里在視頻
    的頭像 發(fā)表于 01-13 10:00 ?833次閱讀

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    以獲得卓越的視覺效果。這個過程并不止于此;旦圖像生成,Imagen 2 可以進步優(yōu)化以滿足特定需求,從而創(chuàng)建強大的工作流程,
    的頭像 發(fā)表于 01-03 10:38 ?899次閱讀
    借助谷歌Gemini和Imagen<b class='flag-5'>模型</b><b class='flag-5'>生成</b>高質(zhì)量圖像

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    用作分類任務中最后的輸出層,以生成各個類別的概率估計。優(yōu)點 產(chǎn)生概率分布:Softmax可以將模型的原始輸出轉(zhuǎn)換成
    發(fā)表于 12-19 14:33

    大語言模型優(yōu)化生成管理方法

    大語言模型的優(yōu)化生成管理是系統(tǒng)工程,涉及模型架構(gòu)、數(shù)據(jù)處理、內(nèi)容控制、實時響應以及倫理監(jiān)管等多個層面。以下,是對大語言
    的頭像 發(fā)表于 12-02 10:45 ?404次閱讀

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 開發(fā)了全新的生成式 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?820次閱讀

    阿里開源Qwen2.5-Coder代碼模型系列

    Qwen2.5-Coder-32B-Instruct,在代碼生成領(lǐng)域取得了顯著成就。據(jù)官方介紹,該模型在EvalPlus等十多個主流的代碼生成基準測試中,均刷新了開源
    的頭像 發(fā)表于 11-14 11:28 ?981次閱讀

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓練數(shù)據(jù)

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進的指導和獎勵模型,以及
    的頭像 發(fā)表于 09-06 14:59 ?737次閱讀
    NVIDIA Nemotron-4 340B<b class='flag-5'>模型</b>幫助開發(fā)者<b class='flag-5'>生成</b>合成訓練數(shù)據(jù)