一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CVPR 2023最佳論文候選出爐!

新機(jī)器視覺(jué) ? 來(lái)源:新智元 ? 2023-05-19 10:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

CVPR 2023舉辦在即。

今天,官方公布了12篇獲獎(jiǎng)?wù)撐暮蜻x。(占接受論文的0.51%,占提交論文的0.13%)

7fa79ab6-f5b6-11ed-90ce-dac502259ad0.png

根據(jù)官網(wǎng)上統(tǒng)計(jì)數(shù)據(jù),本次CVPR一共接受論文9155篇,錄用2359篇,接受率為25.8%。

其中,235篇被評(píng)為Highlights。(占接受論文的10%,占提交論文的2.6%)

1. Ego-Body Pose Estimation via Ego-Head Pose Estimation

作者:Jiaman Li,Karen Liu,Jiajun Wu

機(jī)構(gòu):斯坦福大學(xué)

7fc9f82c-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2212.04636.pdf

本文中,研究人員提出了一種新的方法,即通過(guò)自我-頭部姿勢(shì)估計(jì)的自我身體姿勢(shì)估計(jì)(EgoEgo),它將問(wèn)題分解為兩個(gè)階段,由頭部運(yùn)動(dòng)作為中間表征來(lái)連接。EgoEgo首先整合了SLAM和一種學(xué)習(xí)方法,以估計(jì)準(zhǔn)確的頭部運(yùn)動(dòng)。

隨后,利用估計(jì)的頭部姿勢(shì)作為輸入,EgoEgo利用條件擴(kuò)散,以產(chǎn)生多個(gè)可信的全身運(yùn)動(dòng)。這種頭部和身體姿勢(shì)的分離消除了對(duì)配對(duì)自我中心視頻和三維人體運(yùn)動(dòng)的訓(xùn)練數(shù)據(jù)集的需要,使研究人員能夠分別利用大規(guī)模自我中心視頻數(shù)據(jù)集和運(yùn)動(dòng)捕捉數(shù)據(jù)集。

此外,為了進(jìn)行系統(tǒng)的基準(zhǔn)測(cè)試,研究人員開(kāi)發(fā)了一個(gè)合成數(shù)據(jù)集AMASS-Replica-Ego-Syn(ARES),其中包括成對(duì)的自我中心視頻和人類運(yùn)動(dòng)。在ARES和真實(shí)數(shù)據(jù)上,研究人員的EgoEgo模型的表現(xiàn)明顯優(yōu)于目前最先進(jìn)的方法。

7fe92db4-f5b6-11ed-90ce-dac502259ad0.png

2. 3D Registration with Maximal Cliques

作者:Xiyu Zhang,Jiaqi Yang,Shikun Zhang,Yanning Zhang

3. OmniObject3D: Large Vocabulary 3D Object Dataset for Realistic Perception, Reconstruction and Generation

作者:Tong Wu,Jiarui Zhang,Xiao Fu,Yuxin WANG,Jiawei Ren,Liang Pan,Wenyan Wu,Lei Yang,Jiaqi Wang,Chen Qian,Dahua Lin,Ziwei Liu

機(jī)構(gòu):上海人工智能實(shí)驗(yàn)室,香港中文大學(xué),商湯,香港科技大學(xué),南洋理工大學(xué)

801f6794-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2301.07525.pdf

由于缺乏大規(guī)模的真實(shí)掃描三維數(shù)據(jù)庫(kù),最近在三維物體建模方面的進(jìn)展大多依賴于合成數(shù)據(jù)集。

為了促進(jìn)現(xiàn)實(shí)世界中3D感知、重建和生成的發(fā)展,研究人員提出了OmniObject3D,一個(gè)具有大規(guī)模高質(zhì)量真實(shí)掃描3D物體的大型詞匯3D物體數(shù)據(jù)集。

OmniObject3D有幾個(gè)吸引人的特性:1)超大數(shù)據(jù)量:它包括190個(gè)日常類別的6000個(gè)掃描物體,與流行的二維數(shù)據(jù)集(如ImageNet和LVIS)共享共同的類別,有利于追求可通用的三維表征。2)豐富的注釋:每個(gè)三維物體都由二維和三維傳感器捕獲,提供紋理網(wǎng)格、點(diǎn)云、多視角渲染圖像和多個(gè)真實(shí)捕獲的視頻。3) 真實(shí)的掃描:專業(yè)掃描儀支持高質(zhì)量的物體掃描,具有精確的形狀和逼真的外觀。

利用OmniObject3D提供的廣闊探索空間,研究人員精心設(shè)置了四個(gè)評(píng)估基準(zhǔn):a)強(qiáng)大的3D感知,b)新視角合成,c)神經(jīng)表面重建,以及d)3D物體生成。

80324364-f5b6-11ed-90ce-dac502259ad0.png

4. MobileNeRF: Exploiting the Polygon Rasterization Pipeline for Efficient Neural Field Rendering on Mobile Architectures

作者:Zhiqin Chen,Thomas Funkhouser,Peter Hedman,Andrea Tagliasacchi

機(jī)構(gòu):谷歌,西蒙菲莎大學(xué),多倫多大學(xué)

80b9a34a-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2208.00277.pdf

神經(jīng)輻射場(chǎng)(NeRFs)在從新的視角合成三維場(chǎng)景的圖像方面表現(xiàn)出驚人的能力。然而,它們依賴的專有體積渲染算法,與廣泛部署的圖形硬件的能力并不匹配。

本文介紹了一種新的基于紋理多邊形的NeRF表征方法,它可以用標(biāo)準(zhǔn)渲染管道有效地合成新的圖像。NeRF被表征為一組多邊形,其紋理代表二進(jìn)制不透明度和特征矢量。用Z型緩沖器對(duì)多邊形進(jìn)行傳統(tǒng)的渲染,得到的圖像在每個(gè)像素上都有特征,這些特征被運(yùn)行在片段著色器中的一個(gè)小型的、依賴于視圖的MLP解釋,以產(chǎn)生最終的像素顏色。

這種方法使NeRF能夠用傳統(tǒng)的多邊形光柵化管道進(jìn)行渲染,它提供了大規(guī)模的像素級(jí)并行性,在包括手機(jī)在內(nèi)的各種計(jì)算平臺(tái)上實(shí)現(xiàn)了足以進(jìn)行交互的幀率。

80d15a1c-f5b6-11ed-90ce-dac502259ad0.png

5. DynIBaR: Neural Dynamic Image-Based Rendering

作者:Zhengqi Li,Qianqian Wang,F(xiàn)orrester Cole,Richard Tucker,Noah Snavely

機(jī)構(gòu):谷歌,康奈爾科技校區(qū)

81329e4e-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2211.11082.pdf

本文中,研究人員提出了一種基于體積圖像的渲染框架,該框架通過(guò)以場(chǎng)景運(yùn)動(dòng)感知的方式,來(lái)聚合附近的視點(diǎn)特征,從而合成新的視點(diǎn)。

研究人員的系統(tǒng)保留了先前方法的優(yōu)點(diǎn),即能夠?qū)?fù)雜的場(chǎng)景和視點(diǎn)相關(guān)的效果進(jìn)行建模,而且還能夠從具有復(fù)雜場(chǎng)景動(dòng)態(tài)和無(wú)約束相機(jī)軌跡的長(zhǎng)視頻中合成照片般真實(shí)的新視點(diǎn)。

結(jié)果證明,在動(dòng)態(tài)場(chǎng)景數(shù)據(jù)集上,新方法比SOTA有明顯改進(jìn)。并且,還能應(yīng)用于頗具挑戰(zhàn)性的運(yùn)動(dòng)視頻當(dāng)中,此前的方法在這里都無(wú)法產(chǎn)生高質(zhì)量的渲染。

814eb110-f5b6-11ed-90ce-dac502259ad0.png

6. Planning-oriented Autonomous Driving

作者:Yihan Hu,Jiazhi Yang,Li Chen,Keyu Li,Chonghao Sima,Xizhou Zhu,Siqi Chai,Senyao Du,Tianwei Lin,Wenhai Wang,Lewei Lu,Xiaosong Jia,Qiang Liu,Jifeng Dai,Yu Qiao,Hongyang Li機(jī)構(gòu):上海人工智能實(shí)驗(yàn)室,武漢大學(xué),商湯

817f73b8-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2212.10156.pdf 本文中,研究人員提出了一種全新的綜合框架——統(tǒng)一自動(dòng)駕駛(UniAD)。通過(guò)將全棧式的駕駛?cè)蝿?wù)納入一個(gè)網(wǎng)絡(luò),該框架可以利用每個(gè)模塊的優(yōu)勢(shì),并從全局角度為智能體交互提供互補(bǔ)的特征抽象。任務(wù)通過(guò)統(tǒng)一的查詢接口進(jìn)行通信,從而促進(jìn)彼此的規(guī)劃。 研究人員在具有挑戰(zhàn)性的nuScenes基準(zhǔn)上對(duì)UniAD進(jìn)行了實(shí)例化。消融實(shí)驗(yàn)顯示,新方法在各個(gè)方面的性能都大大優(yōu)于此前的SOTA。

8193c606-f5b6-11ed-90ce-dac502259ad0.png

7. DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation

作者:Nataniel Ruiz,Yuanzhen Li,Varun Jampani,Yael Pritch,Michael Rubinstein,Kfir Aberman機(jī)構(gòu):谷歌,波士頓大學(xué)

81b9f81c-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2208.12242.pdf 在這項(xiàng)工作中,研究人員提出了一種新的「?jìng)€(gè)性化」文本到圖像擴(kuò)散模型的方法。 只需輸入少數(shù)幾張主體的圖片,就可以微調(diào)預(yù)訓(xùn)練的文本到圖像模型,使其學(xué)會(huì)將獨(dú)特的標(biāo)識(shí)符與特定主體綁定。一旦將主體嵌入模型的輸出域,就可以使用獨(dú)特的標(biāo)識(shí)符在不同場(chǎng)景中合成該主體的新的真實(shí)感圖像。 通過(guò)利用模型中嵌入的語(yǔ)義先驗(yàn)以及新的自生類特定先驗(yàn)保留損失,新的方法使得在各種場(chǎng)景、姿態(tài)、視角和光照條件下合成主體成為可能,而這些條件在參考圖像中并未出現(xiàn)。

81cd74d2-f5b6-11ed-90ce-dac502259ad0.png

8. On Distillation of Guided Diffusion Models

作者:Chenlin Meng,Robin Rombach,Ruiqi Gao,Diederik Kingma,Stefano Ermon,Jonathan Ho,Tim Salimans機(jī)構(gòu):斯坦福大學(xué),Stability AI,慕尼黑大學(xué),谷歌

81f97172-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2210.03142.pdf 無(wú)分類器指導(dǎo)的擴(kuò)散模型的一個(gè)缺點(diǎn)是,它們?cè)谕评頃r(shí)的計(jì)算成本很高,因?yàn)樗鼈冃枰u(píng)估兩個(gè)擴(kuò)散模型,一個(gè)類別條件模型和一個(gè)無(wú)條件模型,需要數(shù)十到數(shù)百次。 為了解決這一局限性,研究人員提出了一種將無(wú)分類器指導(dǎo)的擴(kuò)散模型提煉成快速采樣的模型的方法。 給定一個(gè)預(yù)先訓(xùn)練好的無(wú)分類器指導(dǎo)的模型,首先學(xué)習(xí)一個(gè)單一的模型來(lái)匹配合并的條件和無(wú)條件模型的輸出,然后逐步將該模型提煉成一個(gè)需要更少采樣步驟的擴(kuò)散模型。

8210cf5c-f5b6-11ed-90ce-dac502259ad0.png

9. Visual Programming: Compositional visual reasoning without training

作者:Tanmay Gupta,Aniruddha Kembhavi機(jī)構(gòu):艾倫人工智能研究所

8365bb9c-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2211.11559.pdf 研究人員提出了一種神經(jīng)符號(hào)方法VISPROG,用于解決給定自然語(yǔ)言指令的復(fù)雜和組合性的視覺(jué)任務(wù)。 VISPROG使用大型語(yǔ)言模型的非文本學(xué)習(xí)能力來(lái)生成類似于python的模塊化程序,然后執(zhí)行這些程序以獲得解決方案和一個(gè)全面的、可解釋的理由。 生成的程序的每一行都可以調(diào)用幾個(gè)現(xiàn)成的CV模型、圖像處理子程序或python函數(shù)中的一個(gè),以產(chǎn)生中間輸出。 研究人員在4個(gè)不同的任務(wù)上展示了VISPROG的靈活性:組合式視覺(jué)問(wèn)題回答、圖像對(duì)的零點(diǎn)推理、事實(shí)知識(shí)對(duì)象標(biāo)簽和語(yǔ)言引導(dǎo)的圖像編輯。 研究人員表示,像VISPROG這樣的神經(jīng)符號(hào)方法是一條令人興奮的途徑,可以輕松有效地?cái)U(kuò)大人工智能系統(tǒng)的范圍,為人們可能希望執(zhí)行的長(zhǎng)尾復(fù)雜任務(wù)提供服務(wù)。

8379dd98-f5b6-11ed-90ce-dac502259ad0.png

10. What Can Human Sketches Do for Object Detection?

作者:Pinaki Nath Chowdhury,Ayan Kumar Bhunia,Aneeshan Sain,Subhadeep Koley,Tao Xiang,Yi-Zhe Song機(jī)構(gòu):薩里大學(xué)

83e1e14a-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2303.15149.pdf 草圖,具有很強(qiáng)的表現(xiàn)力,本身就能捕捉到主觀和細(xì)粒度的視覺(jué)線索。然而,當(dāng)前對(duì)草圖這種先天屬性的探索僅限于圖像檢索領(lǐng)域。 論文中,研究人員嘗試開(kāi)發(fā)草圖的表現(xiàn)力,而不是目標(biāo)檢測(cè)這一基本視覺(jué)任務(wù)。 研究人員首先對(duì)SBIR模型的草圖和照片分支進(jìn)行獨(dú)立提示,在CLIP的泛化能力的基礎(chǔ)上建立高度可泛化的Sketches和照片編碼器。 然后,研究人員設(shè)計(jì)了一個(gè)訓(xùn)練范式,使編碼器適用于物體檢測(cè),這樣,檢測(cè)到的邊界款區(qū)域的嵌入,與SBIR的草圖和照片嵌入對(duì)齊。 通過(guò)在標(biāo)準(zhǔn)目標(biāo)檢測(cè)數(shù)據(jù)集(如PASCAL-VOC和MS-COCO)上評(píng)估最新框架,可見(jiàn)在零樣本設(shè)置上優(yōu)于受監(jiān)督(SOD)和弱監(jiān)督目標(biāo)檢測(cè)器(WSOD)。

83fa4a1e-f5b6-11ed-90ce-dac502259ad0.png

11. Data-driven Feature Tracking for Event Cameras

作者:Nico Messikommer,Carter Fang,Mathias Gehrig,Davide Scaramuzza機(jī)構(gòu):蘇黎世大學(xué)

84ae6030-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2211.12826.pdf 現(xiàn)有的事件相機(jī)特征跟蹤方法要么是人工制作的,要么是從第一性原理中推導(dǎo)出來(lái)的,但需要大量的參數(shù)調(diào)整,且對(duì)噪聲敏感,由于未建模的效應(yīng),無(wú)法泛化到不同的場(chǎng)景。 為了解決這些不足,研究人員引入了第一個(gè)數(shù)據(jù)驅(qū)動(dòng)的事件相機(jī)特征跟蹤器,該跟蹤器利用低延遲的事件來(lái)跟蹤在灰度幀中檢測(cè)到的特征。 通過(guò)直接從合成數(shù)據(jù)無(wú)縫轉(zhuǎn)移到真實(shí)數(shù)據(jù),新的數(shù)據(jù)驅(qū)動(dòng)跟蹤器在相對(duì)特征年齡上超過(guò)了現(xiàn)有方法高達(dá)120%,同時(shí)也實(shí)現(xiàn)了最低的延遲。通過(guò)使用一種新的自監(jiān)督策略讓跟蹤器適應(yīng)真實(shí)數(shù)據(jù),這個(gè)性能差距進(jìn)一步增加到130%。

84c1429a-f5b6-11ed-90ce-dac502259ad0.png

12. Integral Neural Networks

作者:Kirill Solodskikh,Azim Kurbanov,Ruslan Aydarkhanov,Irina Zhelavskaya,Yury Parfenov,Dehua Song,Stamatios Lefkimmiatis機(jī)構(gòu):華為諾亞方舟實(shí)驗(yàn)室

8500ef58-f5b6-11ed-90ce-dac502259ad0.png

論文地址:https://openaccess.thecvf.com/content/CVPR2023/papers/Solodskikh_Integral_Neural_Networks_CVPR_2023_paper.pdf 研究人員介紹了一個(gè)新的深度神經(jīng)網(wǎng)絡(luò)系列。研究人員使用了沿過(guò)濾器和通道維度的連續(xù)層表征,而不是傳統(tǒng)的網(wǎng)絡(luò)層作為N維權(quán)重張量的表示。研究人員稱這種網(wǎng)絡(luò)為積分神經(jīng)網(wǎng)絡(luò)(INNs)。 特別是,INNs的權(quán)重被表示為定義在N維超立方體上的連續(xù)函數(shù),而輸入到各層的離散轉(zhuǎn)換也相應(yīng)地被連續(xù)的集成操作所取代。 在推理階段,連續(xù)層可以通過(guò)數(shù)值積分求積法轉(zhuǎn)換為傳統(tǒng)的張量表示。這種表示允許網(wǎng)絡(luò)以任意大小和各種離散化間隔對(duì)積分核進(jìn)行離散化。 這種方法可用于直接在邊緣設(shè)備上對(duì)模型進(jìn)行剪枝,而在沒(méi)有任何微調(diào)的情況下,即使在高剪枝率下也只會(huì)有小的性能損失。 為了評(píng)估提出方法的實(shí)際效益,研究人員在多個(gè)任務(wù)上使用各種神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行了實(shí)驗(yàn)。 報(bào)告結(jié)果顯示,所提出的INNs實(shí)現(xiàn)了與傳統(tǒng)的離散對(duì)應(yīng)物相同的性能,同時(shí)能夠在不進(jìn)行微調(diào)的高剪枝率(高達(dá)30%)下保持大致相同的性能(對(duì)于Imagenet上的ResNet18,精度損失為2%),而傳統(tǒng)剪枝方法在相同條件下的準(zhǔn)確性損失65%。

8524edcc-f5b6-11ed-90ce-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2565

    文章

    53008

    瀏覽量

    767481
  • SLAM
    +關(guān)注

    關(guān)注

    24

    文章

    441

    瀏覽量

    32505
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25448

原文標(biāo)題:重磅!CVPR 2023最佳論文候選出爐!

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    ISS建議高通選出四名候選人與博通談判出售

    代理咨詢公司Institutional Shareholder Services Inc(ISS)建議高通與博通談判出售事宜,并在周五晚些時(shí)候發(fā)布的報(bào)告中建議高通股東,投票選出博通在3月6日舉行的高
    的頭像 發(fā)表于 02-18 20:48 ?6263次閱讀

    高工產(chǎn)品及論文大賽火熱報(bào)名中~~~~~~~~

    ,只要你喜歡玩技術(shù)都可以參加。大賽的作品分為論文和產(chǎn)品設(shè)計(jì)兩種,參賽選手提交論文或提交產(chǎn)品設(shè)計(jì)或同時(shí)提交論文和產(chǎn)品設(shè)計(jì)。大賽專家團(tuán)將在候選作品中評(píng)出十個(gè)
    發(fā)表于 07-30 10:27

    CVPR2019一共收到5165篇有效投遞論文,在線編輯器一度崩潰!

    由于CVPR 2019截稿日將近,眾多投稿人都在抓緊最后的時(shí)間修改提交論文,在線論文編輯網(wǎng)站Overleaf一度不堪重負(fù),宕機(jī)無(wú)法訪問(wèn),Twitter上有投稿的小伙伴發(fā)出感嘆,以后再投稿頂會(huì)
    的頭像 發(fā)表于 11-19 09:25 ?9463次閱讀

    ICLR 2019最佳論文日前揭曉 微軟與麻省等獲最佳論文獎(jiǎng)項(xiàng)

    ICLR 2019最佳論文日前揭曉。來(lái)自微軟研究院、加拿大蒙特利爾學(xué)習(xí)算法研究所 (MILA)和來(lái)自麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(MIT CSAIL)奪得本次大會(huì)的最佳論文獎(jiǎng)
    的頭像 發(fā)表于 05-11 09:10 ?2593次閱讀

    ICML 2019最佳論文新鮮出爐!

    這是一篇大規(guī)模深入研究無(wú)監(jiān)督解耦表示(Disentangled Representation)的論文,對(duì)近年來(lái)絕大多數(shù)的非監(jiān)督解耦表示方法進(jìn)行了探索、利用 2.5GPU 年的算力在 7 個(gè)數(shù)據(jù)集上訓(xùn)練了 12000 多個(gè)模型。
    的頭像 發(fā)表于 06-15 10:02 ?5495次閱讀

    CVPR 2019最佳論文公布了:來(lái)自CMU的辛?xí)岬热撕献鞯?b class='flag-5'>論文獲得最佳論文獎(jiǎng)

    最佳學(xué)生論文授予了加州大學(xué)圣巴巴拉分校、微軟研究院、杜克大學(xué)的Xin Wang, Qiuyuan Huang等人合作的論文Reinforced Cross-Modal Matching
    的頭像 發(fā)表于 06-23 08:18 ?4786次閱讀

    62篇論文入選十年來(lái)最難CVPR,商湯研究再創(chuàng)佳績(jī)

    根據(jù)官方數(shù)據(jù),本屆CVPR大會(huì)共收到6656篇投稿,接收論文1470篇,錄用率約22%,低于ICCV 2019論文錄用率(25%),為十年以來(lái)CVPR
    的頭像 發(fā)表于 05-12 14:42 ?2859次閱讀

    ICLR 2021杰出論文獎(jiǎng)出爐 讓我們看看前八位優(yōu)秀論文有哪些

    ICLR 2021杰出論文獎(jiǎng)出爐今年共有2997篇投稿,接收860篇,最后共有8篇獲得杰出論文獎(jiǎng)。 這8篇論文中,谷歌成最大贏家,共有4篇論文
    的頭像 發(fā)表于 04-13 16:57 ?3990次閱讀
    ICLR 2021杰出<b class='flag-5'>論文</b>獎(jiǎng)<b class='flag-5'>出爐</b> 讓我們看看前八位優(yōu)秀<b class='flag-5'>論文</b>有哪些

    CVPR 2021華為諾亞方舟實(shí)驗(yàn)室發(fā)表30篇論文 |CVPR 2021

    一年一度的計(jì)算機(jī)視覺(jué)頂會(huì)IEEE計(jì)算機(jī)視覺(jué)及模式識(shí)別大會(huì)CVPR錄用結(jié)果最近公布。據(jù)悉,今年CVPR投稿量與論文接收量相對(duì)往年繼續(xù)上升,有...
    發(fā)表于 01-25 18:24 ?1次下載
    <b class='flag-5'>CVPR</b> 2021華為諾亞方舟實(shí)驗(yàn)室發(fā)表30篇<b class='flag-5'>論文</b> |<b class='flag-5'>CVPR</b> 2021

    創(chuàng)造歷史!商湯聯(lián)合團(tuán)隊(duì)斬獲CVPR最佳論文,推出首個(gè)“感知決策一體化”自動(dòng)駕駛通用大模型

    一篇最佳論文,一篇最佳論文候選,共計(jì)54篇論文被接收 ,商湯科技及聯(lián)合實(shí)驗(yàn)室交出
    的頭像 發(fā)表于 06-22 06:15 ?796次閱讀
    創(chuàng)造歷史!商湯聯(lián)合團(tuán)隊(duì)斬獲<b class='flag-5'>CVPR</b><b class='flag-5'>最佳</b><b class='flag-5'>論文</b>,推出首個(gè)“感知決策一體化”自動(dòng)駕駛通用大模型

    中國(guó)團(tuán)隊(duì)包攬CVPR 2021弱光人臉檢測(cè)挑戰(zhàn)賽前三名!高分論文已公開(kāi)播

    來(lái)源:CVPR 2021 UG2+ 編輯:好困 【新智元導(dǎo)讀】中國(guó)團(tuán)隊(duì)包攬CVPR 2021 UG2+挑戰(zhàn)賽弱光人臉檢測(cè)賽道前三,其中TAL-ai更是以74.89的高分奪得第一。 CVPR作為是全球
    的頭像 發(fā)表于 07-02 15:35 ?988次閱讀
    中國(guó)團(tuán)隊(duì)包攬<b class='flag-5'>CVPR</b> 2021弱光人臉檢測(cè)挑戰(zhàn)賽前三名!高分<b class='flag-5'>論文</b>已公開(kāi)播

    CVPR 2023 | 完全無(wú)監(jiān)督的視頻物體分割 RCF

    TLDR: 視頻分割一直是重標(biāo)注的一個(gè) task,這篇 CVPR 2023 文章研究了完全不需要標(biāo)注的視頻物體分割。僅使用 ResNet,RCF模型在 DAVIS16/STv2/FBMS59 上提升
    的頭像 發(fā)表于 07-16 20:45 ?978次閱讀
    <b class='flag-5'>CVPR</b> <b class='flag-5'>2023</b> | 完全無(wú)監(jiān)督的視頻物體分割 RCF

    FPL 2023最佳論文獎(jiǎng)!

    團(tuán)隊(duì)共同完成的論文《Co-ViSu: a Video Super-Resolution Accelerator Exploiting Codec Information Reuse》獲得FPL2023最佳
    的頭像 發(fā)表于 09-19 17:55 ?1207次閱讀
    FPL <b class='flag-5'>2023</b><b class='flag-5'>最佳</b><b class='flag-5'>論文</b>獎(jiǎng)!

    中科馭數(shù)聯(lián)合處理器芯片全國(guó)重點(diǎn)實(shí)驗(yàn)室獲得FPL 2023最佳論文獎(jiǎng)!

    Information Reuse》獲得FPL2023最佳論文獎(jiǎng)。該項(xiàng)工作由鄢貴海指導(dǎo)完成,作者包括樊海爽、吳婧雅、盧文巖、李曉維。論文第一作者樊海爽受邀在會(huì)上做口頭報(bào)告。 ▲ 《C
    的頭像 發(fā)表于 09-20 14:58 ?1396次閱讀
    中科馭數(shù)聯(lián)合處理器芯片全國(guó)重點(diǎn)實(shí)驗(yàn)室獲得FPL <b class='flag-5'>2023</b><b class='flag-5'>最佳</b><b class='flag-5'>論文</b>獎(jiǎng)!

    天合光能獲評(píng)PV Tech 2023最佳ESG表現(xiàn)光伏公司

    近日,PV Tech年度榜單——2023最佳ESG表現(xiàn)光伏公司新鮮出爐。天合光能憑借在ESG領(lǐng)域的建樹(shù),特別是在環(huán)境、健康、綠色等事關(guān)人類福祉的重大議題上的行動(dòng)力,入選2023
    的頭像 發(fā)表于 01-19 16:51 ?956次閱讀