一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

3D人體生成模型HumanGaussian實(shí)現(xiàn)原理

OpenCV學(xué)堂 ? 來(lái)源:機(jī)器之心 ? 2023-12-20 16:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來(lái)源:公眾號(hào) 機(jī)器之心 授權(quán)

在 3D 生成領(lǐng)域,根據(jù)文本提示創(chuàng)建高質(zhì)量的 3D 人體外觀和幾何形狀對(duì)虛擬試穿、沉浸式遠(yuǎn)程呈現(xiàn)等應(yīng)用有深遠(yuǎn)的意義。傳統(tǒng)方法需要經(jīng)歷一系列人工制作的過(guò)程,如 3D 人體模型回歸、綁定、蒙皮、紋理貼圖和驅(qū)動(dòng)等。為了自動(dòng)化 3D 內(nèi)容生成,此前的一些典型工作(比如 DreamFusion [1] )提出了分?jǐn)?shù)蒸餾采樣 (Score Distillation Sampling),通過(guò)優(yōu)化 3D 場(chǎng)景的神經(jīng)表達(dá)參數(shù),使其在各個(gè)視角下渲染的 2D 圖片符合大規(guī)模預(yù)訓(xùn)練的文生圖模型分布。然而,盡管這一類方法在單個(gè)物體上取得了不錯(cuò)的效果,我們還是很難對(duì)具有復(fù)雜關(guān)節(jié)的細(xì)粒度人體進(jìn)行精確建模。

為了引入人體結(jié)構(gòu)先驗(yàn),最近的文本驅(qū)動(dòng) 3D 人體生成研究將 SDS 與 SMPL 等模型結(jié)合起來(lái)。具體來(lái)說(shuō),一個(gè)常見(jiàn)的做法是將人體先驗(yàn)集成到網(wǎng)格(mesh)和神經(jīng)輻射場(chǎng)(NeRF)等表示中,或者通過(guò)將身體形狀作為網(wǎng)格 / 神經(jīng)輻射場(chǎng)密度初始化,或者通過(guò)學(xué)習(xí)基于線性混合蒙皮(Linear Blend Skinning)的形變場(chǎng)。然而,它們大多在效率和質(zhì)量之間進(jìn)行權(quán)衡:基于 mesh 的方法很難對(duì)配飾和褶皺等精細(xì)拓?fù)溥M(jìn)行建模;而基于 NeRF 的方法渲染高分辨率結(jié)果對(duì)時(shí)間和顯存的開(kāi)銷非常大。如何高效地實(shí)現(xiàn)細(xì)粒度生成仍然是一個(gè)未解決的問(wèn)題。

最近,3D Gaussian Splatting(3DGS)[2] 的顯式神經(jīng)表達(dá)為實(shí)時(shí)場(chǎng)景重建提供了新的視角。它支持多粒度、多尺度建模,對(duì) 3D 人體生成任務(wù)非常適用。然而,想要使用這種高效的表達(dá)仍有兩個(gè)挑戰(zhàn):1) 3DGS 通過(guò)在每個(gè)視錐體中排序和 alpha - 混合各向異性的高斯來(lái)表征基于圖塊的光柵化,這僅會(huì)反向傳播很少一部分的高置信度高斯。然而,正如 3D 表面 / 體積渲染研究所證實(shí)的那樣,稀疏的梯度可能會(huì)阻礙幾何和外觀的網(wǎng)絡(luò)優(yōu)化。因此,3DGS 需要結(jié)構(gòu)引導(dǎo),特別是對(duì)于需要層次化建模和可控生成的人體領(lǐng)域。2)樸素的 SDS 需要一個(gè)較大的無(wú)分類器指導(dǎo)(Classifier-Free Guidance)來(lái)進(jìn)行圖像文本對(duì)齊(例如,在 DreamFusion [1] 中使用的 100)。但它會(huì)因過(guò)度飽和而犧牲視覺(jué)質(zhì)量,使真實(shí)的人類生成變得困難。此外,由于 SDS 損失的隨機(jī)性,3DGS 中原始的基于梯度的密度控制會(huì)變得不穩(wěn)定,導(dǎo)致模糊的結(jié)果和浮動(dòng)偽影。

在最近的一項(xiàng)工作中,香港中文大學(xué)、騰訊 AI Lab、北京大學(xué)、香港大學(xué)、南洋理工大學(xué)團(tuán)隊(duì)推出最新有效且快速的 3D 人體生成模型 HumanGaussian,通過(guò)引入顯式的人體結(jié)構(gòu)引導(dǎo)與梯度規(guī)范化來(lái)輔助 3D 高斯的優(yōu)化過(guò)程,能夠生成多樣且逼真的高質(zhì)量 3D 人體模型。目前,代碼與模型均已開(kāi)源。

wKgaomWCqS-AdUR6AAMVxAky4pg142.png

核心方法

(1)Structure-Aware SDS

研究者基于 SMPL-X 網(wǎng)格形狀初始化 3D 高斯中心位置:

1)以前的研究使用運(yùn)動(dòng)結(jié)構(gòu)點(diǎn)(Structure-from-Motion)或 Shap-E [3] 和 Point-E [4] 等通用文本到點(diǎn)云先驗(yàn)。然而,此類方法通常在人體類別中存在點(diǎn)過(guò)于稀疏或身體結(jié)構(gòu)不連貫等問(wèn)題。

2)作為 SMPL 的擴(kuò)展,SMPL-X 補(bǔ)充了人臉和手部的形狀拓?fù)?,有利于進(jìn)行具有細(xì)粒度細(xì)節(jié)的復(fù)雜人體建模?;谶@些觀察,研究者提出了在 SMPL-X 網(wǎng)格表面均勻采樣點(diǎn)作為 3DGS 初始化。他們對(duì) 3DGS 進(jìn)行縮放和變換,使其達(dá)到合理的人體尺寸并位于 3D 空間的中心。

由于 SMPL-X 先驗(yàn)僅用作初始化,因此需要更全面的指導(dǎo)來(lái)促進(jìn) 3DGS 訓(xùn)練。研究者提出使用一個(gè)同時(shí)捕獲紋理和結(jié)構(gòu)聯(lián)合分布的 SDS 源模型,而不是從僅學(xué)習(xí)外觀或幾何形狀的單一模態(tài)擴(kuò)散模型中學(xué)習(xí) 3D 場(chǎng)景。他們使用結(jié)構(gòu)專家分支擴(kuò)展預(yù)訓(xùn)練的 Stable Diffusion 模型,以同時(shí)對(duì)圖像 RGB 和深度圖進(jìn)行去噪:

wKgaomWCqS-AWH-yAAA3UFj8658631.png

借助這種方式,研究者獲得了一個(gè)統(tǒng)一的模型,可以捕獲外觀的圖像紋理和前景 / 背景關(guān)系的結(jié)構(gòu),該模型可以在 SDS 中用于促進(jìn) 3DGS 學(xué)習(xí)。

通過(guò)生成空間對(duì)齊圖像 RGB 和深度的擴(kuò)展擴(kuò)散模型,可以從結(jié)構(gòu)和紋理方面同時(shí)指導(dǎo) 3DGS 優(yōu)化過(guò)程:

wKgZomWCqS-AIbgBAABvYFoon-g455.png

這種結(jié)構(gòu)正則化有助于減少幾何失真,從而有利于具有稀疏梯度信息的 3DGS 優(yōu)化。

(2)Annealed Negative Prompt Guidance

為了促進(jìn)文本與 3D 生成內(nèi)容之間的對(duì)齊,DreamFusion [1] 使用較大的無(wú)分類器引導(dǎo)尺度來(lái)更新 3D 場(chǎng)景優(yōu)化的分?jǐn)?shù)匹配差異項(xiàng):

wKgaomWCqS-AOmLFAABbvHPwKtk199.png

在這個(gè)公式中,可以自然地將分?jǐn)?shù)匹配差異分解為兩部分,其中前一項(xiàng)是將圖像推向更真實(shí)的流形的生成分?jǐn)?shù);后一項(xiàng)是將樣本與隱式分類器對(duì)齊的分類器分?jǐn)?shù)。然而,由于生成分?jǐn)?shù)包含高方差的高斯噪聲,它提供了損害訓(xùn)練穩(wěn)定性的隨機(jī)梯度信息。為了解決這個(gè)問(wèn)題,DreamFusion 特地使用較大的無(wú)分類器引導(dǎo)尺度,使分類器分?jǐn)?shù)主導(dǎo)優(yōu)化,導(dǎo)致模式過(guò)度飽和。相反,研究者僅利用更清晰的分類器分?jǐn)?shù)作為 SDS 損失。

在文生圖和文生 3D 領(lǐng)域中,負(fù)文本被廣泛用于避免生成不需要的屬性?;诖?,研究者提出增加負(fù)文本分類器分?jǐn)?shù)以實(shí)現(xiàn)更好的 3DGS 學(xué)習(xí)。

根據(jù)經(jīng)驗(yàn),研究者發(fā)現(xiàn)負(fù)文本分類器分?jǐn)?shù)會(huì)在小時(shí)間步長(zhǎng)內(nèi)損害質(zhì)量,因此使用退火的負(fù)文本引導(dǎo)來(lái)結(jié)合兩個(gè)分?jǐn)?shù)進(jìn)行監(jiān)督:

wKgZomWCqS-AAVr4AAA7faGNukY739.png

實(shí)驗(yàn)結(jié)果

研究者與通用的文生 3D 和 3D 人體生成領(lǐng)域的模型進(jìn)行對(duì)比??梢钥吹?,HumanGaussian 取得了優(yōu)越的性能,渲染出更真實(shí)的人體外觀、更連貫的身體結(jié)構(gòu)、更好的視圖一致性、更細(xì)粒度的細(xì)節(jié)捕捉:

此外,研究者還通過(guò)消融實(shí)驗(yàn)驗(yàn)證了各個(gè)模塊的有效性??梢钥闯?,SMPL-X 提供的人體結(jié)構(gòu)先驗(yàn)可以給 3DGS 優(yōu)化提供初始化信息;負(fù)文本引導(dǎo)可以確保逼真的人體紋理外觀;圖像 RGB 與深度圖雙分支的 SDS 監(jiān)督約束可以同時(shí)對(duì)人體的幾何和紋理進(jìn)行優(yōu)化;最后根據(jù)高斯大小進(jìn)行剪枝可以去除霧狀的偽影:

更多樣本請(qǐng)參考文章的項(xiàng)目主頁(yè)以及 demo 視頻

總結(jié)與未來(lái)工作

本文提出 HumanGaussian,一種有效且快速的框架用于生成具有細(xì)粒度幾何形狀和逼真外觀的高質(zhì)量 3D 人體。HumanGaussian 提出兩點(diǎn)核心貢獻(xiàn):

(1)設(shè)計(jì)了結(jié)構(gòu)感知的 SDS,可以顯式地引入人體結(jié)構(gòu)先驗(yàn),并同時(shí)優(yōu)化人體外觀和幾何形狀;

(2)設(shè)計(jì)了退火的負(fù)文本引導(dǎo),保證真實(shí)的結(jié)果而不會(huì)過(guò)度飽和并消除浮動(dòng)偽影??傮w來(lái)說(shuō),HumanGaussian 能夠生成多樣且逼真的高質(zhì)量 3D 人體模型,渲染出更真實(shí)的人體外觀、更連貫的身體結(jié)構(gòu)、更好的視圖一致性、更細(xì)粒度的細(xì)節(jié)捕捉。

未來(lái)工作:

由于現(xiàn)有的文生圖模型對(duì)于手部和腳部生成的性能有限,研究者發(fā)現(xiàn)它有時(shí)無(wú)法高質(zhì)量地渲染這些部分;

后背視圖的渲染紋理可能看起來(lái)模糊,這是因?yàn)?2D 姿勢(shì)條件模型大多是在人類正面視圖上訓(xùn)練的,而人類后視圖的先驗(yàn)知識(shí)很少。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2959

    瀏覽量

    110826
  • 開(kāi)源
    +關(guān)注

    關(guān)注

    3

    文章

    3695

    瀏覽量

    43852
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3522

    瀏覽量

    50447

原文標(biāo)題:HumanGaussian開(kāi)源:基于Gaussian Splatting,高質(zhì)量 3D 人體生成新框架

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    ad19中3d模型不顯示?

    封裝庫(kù)導(dǎo)入3d模型不顯示,但導(dǎo)入3d模型后的封裝庫(kù)生成pcb文件時(shí)顯示3d
    發(fā)表于 04-24 13:41

    Labview 3D模型

    新手求助……有沒(méi)有哪位大神會(huì)利用labview顯示3D模型(含裝配體,需要轉(zhuǎn)動(dòng)不同的部位)嗎?是用3D傳感器映射???
    發(fā)表于 08-26 01:20

    Labview中如何導(dǎo)入3D模型

    Labview中如何導(dǎo)入3D模型,例如3Dmax生成模型。嘗試過(guò)用.STL格式導(dǎo)入Labview。但是
    發(fā)表于 01-26 13:13

    你沒(méi)看錯(cuò),浩辰3D軟件中CAD圖紙與3D模型高效轉(zhuǎn)化這么好用!

    、角度、受力等等實(shí)現(xiàn)精準(zhǔn)參數(shù)化管理。 (精準(zhǔn)參數(shù)化管理)3、一鍵生成各類2D工程圖浩辰3D為用戶提供了多種工程圖創(chuàng)建方式,可以通過(guò)新建直接選
    發(fā)表于 05-13 14:33

    浩辰3D軟件入門教程:如何比較3D模型

    :比較結(jié)果針對(duì)不同的應(yīng)用需求,浩辰3D軟件提供了多樣化方式來(lái)查看比較結(jié)果,如在線查看、生成分析報(bào)告等。在線查看的方式,更適合個(gè)人用戶進(jìn)行快速查看。在右側(cè)的預(yù)覽窗口,通過(guò)「幾何體比較」(如模型實(shí)體的區(qū)別
    發(fā)表于 12-15 13:45

    AD的3D模型繪制功能介紹

    `  首先,在封裝庫(kù)的編輯界面下,我們點(diǎn)擊菜單欄目的Place-》3D Body,見(jiàn)圖(1)?!   D(1)3D模型打開(kāi)步驟  打開(kāi)后就會(huì)出現(xiàn)信息編輯界面,見(jiàn)圖(2)。我們可以看到AD的3D
    發(fā)表于 01-14 16:48

    3D模型的基礎(chǔ)介紹

    3D模型基礎(chǔ)
    發(fā)表于 01-28 07:50

    MCAD生成PCB 3D模型報(bào)錯(cuò)

    在AD 21.9.2里面通過(guò)MCAD插件將PCB發(fā)送到solidworks 2019 SP3.0。solidworks里面的MCAD插件不開(kāi)啟編譯過(guò)孔就可以生成3D模型,開(kāi)啟編譯過(guò)孔就報(bào)下圖的錯(cuò)誤,請(qǐng)問(wèn)如何解決。
    發(fā)表于 07-08 11:07

    3D掃描儀成熱點(diǎn):可生成任意3D模型

    3月11日消息,美國(guó)3D打印廠商MarkerBot上周在SXSW上展示了3D掃描儀原型產(chǎn)品。據(jù)介紹,公司正研發(fā)一款桌面3D掃描儀Digitizer,可方便用戶將現(xiàn)實(shí)世界物品轉(zhuǎn)換成可打印
    發(fā)表于 03-11 10:00 ?5652次閱讀

    3D模型

    3D模型, 淘寶網(wǎng)上買的3D元器件庫(kù)需要的自行下載
    發(fā)表于 11-04 15:36 ?0次下載

    人工智能系統(tǒng)VON,生成最逼真3D圖像

    研究團(tuán)隊(duì)寫(xiě)道:“我們的關(guān)鍵思想是將圖像生成過(guò)程分解為三個(gè)要素:形狀、視角和紋理,這種分離的3D表示方式使我們能夠在對(duì)抗學(xué)習(xí)框架下從3D和2D視覺(jué)數(shù)據(jù)收集中學(xué)習(xí)
    的頭像 發(fā)表于 12-07 09:28 ?8149次閱讀

    華為基于AI技術(shù)實(shí)現(xiàn)3D圖像數(shù)字服務(wù)

    華為3D建模服務(wù)(3D Modeling Kit)是華為在圖形圖像領(lǐng)域又一技術(shù)開(kāi)放,面向有3D模型、動(dòng)畫(huà)制作等能力訴求的應(yīng)用開(kāi)發(fā)者,基于AI技術(shù),提供
    的頭像 發(fā)表于 08-12 14:50 ?5400次閱讀

    3D模型場(chǎng)景展示哪個(gè)平臺(tái)做的好?

    體驗(yàn)。 3D模型場(chǎng)景建設(shè)能夠?qū)λ璧?b class='flag-5'>模型進(jìn)行材質(zhì)替換、燈光、虛擬場(chǎng)景、動(dòng)畫(huà)生成、3D互動(dòng)展示等一系列效果設(shè)置,讓
    的頭像 發(fā)表于 12-30 15:39 ?1297次閱讀
    <b class='flag-5'>3D</b><b class='flag-5'>模型</b>場(chǎng)景展示哪個(gè)平臺(tái)做的好?

    NVIDIA生成式AI研究實(shí)現(xiàn)在1秒內(nèi)生成3D形狀

    NVIDIA 研究人員使 LATTE3D (一款最新文本轉(zhuǎn) 3D 生成式 AI 模型實(shí)現(xiàn)雙倍加速。
    的頭像 發(fā)表于 03-27 10:28 ?897次閱讀
    NVIDIA<b class='flag-5'>生成</b>式AI研究<b class='flag-5'>實(shí)現(xiàn)</b>在1秒內(nèi)<b class='flag-5'>生成</b><b class='flag-5'>3D</b>形狀

    歡創(chuàng)播報(bào) 騰訊元寶首發(fā)3D生成應(yīng)用

    1 騰訊元寶首發(fā)3D生成應(yīng)用 只需一張照片,便能迅速打造獨(dú)一無(wú)二的3D角色。7月16日,騰訊旗下大模型應(yīng)用“騰訊元寶”上線了“3D角色夢(mèng)工廠
    的頭像 發(fā)表于 07-18 11:39 ?1238次閱讀
    歡創(chuàng)播報(bào) 騰訊元寶首發(fā)<b class='flag-5'>3D</b><b class='flag-5'>生成</b>應(yīng)用