一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

北京大學(xué)等提出HandTrackNet:點(diǎn)云序列中手物交互的位姿追蹤與重建

CVer ? 來源:北京大學(xué)前沿計(jì)算研究中 ? 2023-03-02 13:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo) 讀

本文是 AAAI 2023 Oral 入選論文 Tracking and Reconstructing Hand Object Interactions from Point Cloud Sequences in the Wild 的解讀。本論文由北京大學(xué)王鶴研究團(tuán)隊(duì)與北京通用人工智能研究院、弗吉尼亞理工大學(xué)、斯坦福大學(xué)、清華大學(xué)、哥倫比亞大學(xué)合作,針對追蹤并重建一段輸入點(diǎn)云序列中的手和物體這一任務(wù)進(jìn)行了研究。

我們首次提出了一個(gè)基于點(diǎn)云的手部關(guān)節(jié)追蹤網(wǎng)絡(luò) HandTrackNet,并設(shè)計(jì)了一套完整的算法來完成手和物體追蹤與重建這一具有挑戰(zhàn)性的任務(wù)。此外,為了獲得更多樣且精準(zhǔn)的數(shù)據(jù),我們在仿真器中生成了大量手物交互的數(shù)據(jù),并模擬了深度相機(jī)的拍攝原理,以獲得接近真實(shí)世界噪聲分布的深度數(shù)據(jù)。僅用仿真數(shù)據(jù)進(jìn)行訓(xùn)練,我們的方法可以很好地泛化到未見過的真實(shí)場景測試數(shù)據(jù)上,以較快的速度(9FPS)取得遠(yuǎn)超前人工作的精度。

57f4146a-b077-11ed-bfe3-dac502259ad0.png

論文鏈接:

http://arxiv.org/abs/2209.12009

項(xiàng)目主頁:

https://pku-epic.github.io/HOtrack

代碼地址:

https://github.com/PKU-EPIC/HOTrack

5820cfa0-b077-11ed-bfe3-dac502259ad0.gif

58e29432-b077-11ed-bfe3-dac502259ad0.gif

59a4dad8-b077-11ed-bfe3-dac502259ad0.gif

圖1. HO3D 數(shù)據(jù)集上的效果展示圖。左起依次為輸入點(diǎn)云,輸出重建結(jié)果,另一個(gè)視角的輸出,以及輸出與 RGB 疊置的效果??梢钥吹?,我們的算法對手物交互中的遮擋問題有很好的魯棒性。

5ae60ad4-b077-11ed-bfe3-dac502259ad0.gif

5b7c27c6-b077-11ed-bfe3-dac502259ad0.gif

5bbe4a7a-b077-11ed-bfe3-dac502259ad0.gif

圖2. DexYCB 數(shù)據(jù)集上的效果展示圖。

01

引 言

手和物體的交互作為人類與復(fù)雜現(xiàn)實(shí)場景交互的主要途徑,在現(xiàn)實(shí)生活中無處不在。作為感知人類與物體交互的主要方法,位姿追蹤和重建人手與物體是兩個(gè)至關(guān)重要的研究課題,可以實(shí)現(xiàn)廣泛的應(yīng)用,包括人機(jī)交互[1],增強(qiáng)現(xiàn)實(shí)[2],以及讓機(jī)器人從人類的演示中學(xué)習(xí)相應(yīng)技能(如抓取和操縱等[3])。

近年來,隨著深度學(xué)習(xí)的發(fā)展,越來越多基于深度學(xué)習(xí)的工作涌現(xiàn)出來,研究如何從單幀信息(RGB 圖片[4]或點(diǎn)云[5])中去感知手和物體,重建他們的幾何形狀或是估計(jì)他們的位姿,但是這類方法往往無法利用上視頻相鄰幀之間的連續(xù)性。另一方面,深度學(xué)習(xí)非常依賴數(shù)據(jù),而對真實(shí)場景視頻中的手和物體去準(zhǔn)確標(biāo)注三維幾何形狀及位姿是一件非常困難且成本極大的事情,現(xiàn)有的數(shù)據(jù)集如 DexYCB[6]和 HO3D[7]都規(guī)模不大且包含的物體數(shù)量少(不超過20個(gè)不同物體),用這樣的數(shù)據(jù)難以訓(xùn)練出能夠泛化到未見過的手和物體的模型。

因此,在這個(gè)工作中,我們關(guān)注于這樣一個(gè)非常有挑戰(zhàn)的任務(wù)——在不用任何真實(shí)數(shù)據(jù)作訓(xùn)練的前提下,對自然條件下的點(diǎn)云序列,聯(lián)合追蹤并重建人手和物體。我們的任務(wù)設(shè)定如下所述:給定一個(gè)包含已分割的手和物體的深度點(diǎn)云序列,還有初始的手部位姿和物體位姿,我們的算法需要去重建手和物體的幾何形狀,并以一個(gè)在線的方式(即對于第幀的預(yù)測只能利用當(dāng)前幀和過去幀的信息,不能利用未來幀的信息)對他們的位姿進(jìn)行追蹤。我們選擇點(diǎn)云這一模態(tài)作為輸入而非圖片是因?yàn)樗麄兙哂懈訙?zhǔn)確的三維結(jié)構(gòu),便于我們感知手和物體的位姿,并且具有更小的歧義性。

為了實(shí)現(xiàn)這一目標(biāo),首先,為了緩解數(shù)據(jù)問題,我們提出了一套流程來合成手和物體交互的仿真數(shù)據(jù)集。該數(shù)據(jù)集擁有非常高的多樣性,無論是手的形狀、物體的形狀,還是兩者的交互姿勢;此外,得益于仿真環(huán)境的優(yōu)勢,這些數(shù)據(jù)帶有免費(fèi)的位姿和形狀標(biāo)注。為了最小化仿真和現(xiàn)實(shí)的領(lǐng)域差異,我們利用 DDS[8]提出的基于結(jié)構(gòu)光的深度傳感器模擬器,生成帶有真實(shí)傳感器噪聲的仿真點(diǎn)云。

除此之外,我們首次提出了一個(gè)基于點(diǎn)云的手部姿勢跟蹤網(wǎng)絡(luò),HandTrackNet,以追蹤幀間手部關(guān)節(jié)的運(yùn)動。HandTrackNet 建立在 PointNet++[9]的基礎(chǔ)上,基于上一幀的預(yù)測來估計(jì)當(dāng)前幀手部關(guān)節(jié)位置的變化。相較于單幀回歸的算法,這樣做壓縮了輸出數(shù)據(jù)的分布空間,簡化了回歸任務(wù),增強(qiáng)了時(shí)序上的連續(xù)性。此外,HandTrackNet 會從上一幀的預(yù)測中計(jì)算手的全局位姿,并利用手的全局位姿來將當(dāng)前幀的輸入點(diǎn)云變換到一個(gè)規(guī)范化的坐標(biāo)系內(nèi),這極大地壓縮了輸入數(shù)據(jù)的分布空間,進(jìn)一步簡化了回歸任務(wù)。在訓(xùn)練過程中,HandTrackNet 會學(xué)習(xí)修正隨機(jī)的手部關(guān)節(jié)擾動,因此不會過擬合到任何時(shí)序軌跡上。

最后,為了更好的解決手和物體遮擋帶來的歧義性,我們進(jìn)一步利用基于優(yōu)化的方法來推理手和物體之間的空間關(guān)系,獲取物理上更加真實(shí)的預(yù)測。我們先將追蹤到的手部關(guān)節(jié)位置轉(zhuǎn)化為 MANO[10]這一參數(shù)化模型的表示,得到手部幾何的重建,然后根據(jù)手和物體交互的先驗(yàn)構(gòu)建幾個(gè)能量函數(shù),用于進(jìn)一步調(diào)整手的位姿,從而產(chǎn)生更加符合物理規(guī)律、更加真實(shí)的手部位姿。

通過充分的實(shí)驗(yàn),我們證明了我們的方法在從未見過的真實(shí)世界手和物體交互數(shù)據(jù)集 HO3D[7]和 DexYCB[6]中的有效性。我們的方法在手和物體的位姿追蹤精度上明顯優(yōu)于之前的方法,并顯示出良好的追蹤魯棒性和極強(qiáng)的泛化性。整個(gè)算法能夠以交互式幀率(約9FPS)進(jìn)行在線跟蹤和重建。

02

方法簡介

5bfe106a-b077-11ed-bfe3-dac502259ad0.png

圖3. 我們生成的 SimGrasp 數(shù)據(jù)集。

首先,為了應(yīng)對數(shù)據(jù)不足的問題,我們在仿真環(huán)境中造了一個(gè)手和物體交互的數(shù)據(jù)集 SimGrasp,包含超過450個(gè)不同的物體和100個(gè)不同大小的手,一共生成了1810段視頻,每段視頻有100幀。我們首先使用 GraspIt[11]來生成了一些手和物體呈持握狀態(tài)的數(shù)據(jù),然后將手往手背方向挪一定距離,并通過對位姿插值的方式獲取動態(tài)抓取的視頻。為了減少 Sim2real 的巨大差異,我們重新實(shí)現(xiàn)了 DDS 算法[8],基于結(jié)構(gòu)光深度相機(jī)的原理,在仿真環(huán)境中模擬了真實(shí)相機(jī)點(diǎn)云會產(chǎn)生的噪聲。

5c4eace6-b077-11ed-bfe3-dac502259ad0.png

圖4. HandTrackNet 結(jié)構(gòu)示意圖。

在方法上,我們首次提出了一個(gè)基于點(diǎn)云的手部關(guān)節(jié)追蹤網(wǎng)絡(luò) HandTrackNet,該網(wǎng)絡(luò)接收當(dāng)前第幀的手部點(diǎn)云和上一幀預(yù)測的手部關(guān)節(jié)位置作為輸入,并對二者進(jìn)行全局姿勢規(guī)范化處理。然后,它利用 PointNet++[9]從規(guī)范化的手部點(diǎn)云中提取特征,并使用每個(gè)關(guān)節(jié)進(jìn)行近鄰查詢和特征傳遞,最后用一個(gè)多層線性感知機(jī)來回歸并更新關(guān)節(jié)位置。

其中,主要的創(chuàng)新部分在于利用上一幀預(yù)測的關(guān)節(jié)位置來進(jìn)行全局姿勢規(guī)范化上。前人的工作[5]發(fā)現(xiàn)手的全局位姿的多樣性會給網(wǎng)絡(luò)預(yù)測關(guān)節(jié)位置帶來很大的困難,而如果能夠設(shè)計(jì)比較好的全局位姿規(guī)范化方法,使得所有的輸入點(diǎn)云都能被變換到同一個(gè)規(guī)范位姿下(例如手心朝向軸,指尖指向軸),就能大大降低學(xué)習(xí)難度,提升泛化能力。注意到,按照之前定義的手部規(guī)范位姿,規(guī)范化的手部點(diǎn)云的第一特征向量應(yīng)該平行軸,第二特征向量應(yīng)該平行軸,因此前人工作[5]中大多使用 PCA 來獲取手部點(diǎn)云的外包圍盒,并利用上述特性進(jìn)行手的全局姿勢規(guī)范化。然而,這樣的做法存在的缺陷是當(dāng)手被嚴(yán)重遮擋時(shí),獲取的外包圍盒無法很好地反應(yīng)真實(shí)手部全局位姿,因此不適用于手和物體交互的場景。

而我們則是注意到,手部指根處的關(guān)節(jié)點(diǎn)相對位置無論手指怎么動都是基本不變的,因此我們可以用 SVD 求解上一幀指根關(guān)節(jié)位置相對于預(yù)定義的規(guī)范位姿下的指根位置的平移和旋轉(zhuǎn),結(jié)合視頻的連續(xù)性,利用這一平移和旋轉(zhuǎn)去規(guī)范化當(dāng)前幀的手部點(diǎn)云輸入。

5c729552-b077-11ed-bfe3-dac502259ad0.png

圖5. 完整流程圖。第0幀,我們會重建手和物體的幾何(如虛線所示);后續(xù)每一幀,我們會分別預(yù)測物體的位姿和手的位姿,并通過優(yōu)化來進(jìn)一步修復(fù)手的位姿。我們還可以每10幀更新一次手和物體的幾何。

利用 HandTrackNet 獲取手部關(guān)節(jié)位置后,我們利用一個(gè)簡單的多層感知機(jī)網(wǎng)絡(luò) IKNet 將手部關(guān)節(jié)位置轉(zhuǎn)化成了手部各關(guān)節(jié)角度,將作為 MANO 這一常用的手部參數(shù)化模型的輸入,結(jié)合第0幀通過優(yōu)化獲得的手部形狀參數(shù),就可以得到手的完整三維重建了。而物體這一支,我們在第0幀利用 DeepSDF[12]的技術(shù)來根據(jù)觀察到的點(diǎn)云去重建類別級未知物體的幾何形狀,并在之后每一幀通過優(yōu)化的辦法來解算物體位姿。最后,我們還使用了一個(gè)聯(lián)合優(yōu)化的模塊,使用手與物體不會互相穿透、手指會貼近物體表面等條件作為能量函數(shù)來優(yōu)化手的位姿,獲取更符合物理規(guī)律、更真實(shí)的手物交互。我們還可以每隔10幀更新一次手和物體的幾何,降低初始化時(shí)的幾何誤差對后續(xù)追蹤的影響。

03

實(shí)驗(yàn)結(jié)果

我們僅僅使用我們合成的仿真數(shù)據(jù)集 SimGrasp 進(jìn)行訓(xùn)練,在不使用任何真實(shí)數(shù)據(jù)進(jìn)一步訓(xùn)練的情況下,直接在 HO3D[7]和 DexYCB[6]這兩個(gè)具有挑戰(zhàn)性的真實(shí)數(shù)據(jù)集上進(jìn)行測試。相較于之前基于單幀預(yù)測的工作HandFoldingNet[13],A2J[14]和 VirtualView[15]以及基于追蹤的工作 Forth[16],我們的方法在平均關(guān)節(jié)位置誤差這項(xiàng)指標(biāo)上在兩個(gè)數(shù)據(jù)集中分別能顯著提升6mm 和3mm 以上。

5c91e894-b077-11ed-bfe3-dac502259ad0.png

圖6. 手部關(guān)節(jié)追蹤實(shí)驗(yàn)結(jié)果。MPJPE 指平均關(guān)節(jié)位置誤差,PD 指手和物體最大穿透深度,DD 指手和物體在接觸時(shí)手指到物體上最近點(diǎn)的平均距離。

物體追蹤方面,雖然之前的工作 CAPTRA[17]在驗(yàn)證集上能獲得更好的表現(xiàn),但是在真實(shí)數(shù)據(jù)的測試集上,我們基于優(yōu)化的方法能夠一致地超過它,證明了我們方法具有更強(qiáng)的泛化能力。

5cb6a63e-b077-11ed-bfe3-dac502259ad0.png

圖7. 物體追蹤實(shí)驗(yàn)結(jié)果。5度5cm 指旋轉(zhuǎn)誤差小于5度且平移誤差小于5cm 的百分比,10度10cm 同理,CD 指帶位姿的重建物體和標(biāo)注物體的倒角距離(Chamfer distance)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4705

    瀏覽量

    95134
  • 仿真器
    +關(guān)注

    關(guān)注

    14

    文章

    1035

    瀏覽量

    85215
  • 人工智能
    +關(guān)注

    關(guān)注

    1805

    文章

    48922

    瀏覽量

    248155
  • 點(diǎn)云
    +關(guān)注

    關(guān)注

    0

    文章

    58

    瀏覽量

    3942

原文標(biāo)題:AAAI 2023 Oral | 北京大學(xué)等提出HandTrackNet:點(diǎn)云序列中手物交互的位姿追蹤與重建

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    一種基于分布式光交換的高帶寬域架構(gòu)InfiniteHBD

    曦智科技聯(lián)合北京大學(xué)、階躍星辰為下一代萬億參數(shù)大模型訓(xùn)練的基礎(chǔ)設(shè)施建設(shè)提出全新解決方案。
    的頭像 發(fā)表于 06-09 10:38 ?371次閱讀
    一種基于分布式光交換的高帶寬域架構(gòu)InfiniteHBD

    香橙派AIpro(20T)走進(jìn)北京大學(xué)、上海交通大學(xué)等高校鯤鵬昇騰科教創(chuàng)新卓越中心特訓(xùn)營

    近日,北京大學(xué)、上海交通大學(xué)等高校鯤鵬昇騰科教創(chuàng)新卓越中心特訓(xùn)營-DeepSeek專場成功舉辦?;顒又荚诨跁N騰技術(shù)的DeepSeek本地化部署實(shí)踐分享,培養(yǎng)學(xué)員自主創(chuàng)新開發(fā)能力。華為技術(shù)專家
    的頭像 發(fā)表于 04-18 11:51 ?407次閱讀
    香橙派AIpro(20T)走進(jìn)<b class='flag-5'>北京大學(xué)</b>、上海交通<b class='flag-5'>大學(xué)</b>等高校鯤鵬昇騰科教創(chuàng)新卓越中心特訓(xùn)營

    軟國際助力北京理工大學(xué)珠海校區(qū)展開科研創(chuàng)新

    近日,軟國際助力北京理工大學(xué)(珠海)基于華為昇騰AI服務(wù)DeepSeek滿血版大模型展開科研及教學(xué)創(chuàng)新。北京理工大學(xué)(珠海)經(jīng)濟(jì)監(jiān)督大
    的頭像 發(fā)表于 03-10 18:13 ?666次閱讀

    香港科技大學(xué)(HKUST):用小數(shù)據(jù)集實(shí)現(xiàn)大尺度觸覺傳感,有望應(yīng)用于以為中心的健康、運(yùn)動、機(jī)器人和虛

    近日,由 香港科技大學(xué)(HKUST)電子與計(jì)算機(jī)工程學(xué)系申亞京教授領(lǐng)導(dǎo)的研究團(tuán)隊(duì) , 提出了一種基于數(shù)字通道的觸覺交互系統(tǒng),可以實(shí)時(shí)測量來自不同部位的分布力,有望在醫(yī)學(xué)評估、體育訓(xùn)練
    的頭像 發(fā)表于 03-03 18:22 ?736次閱讀
    香港科技<b class='flag-5'>大學(xué)</b>(HKUST):用小數(shù)據(jù)集實(shí)現(xiàn)大尺度觸覺傳感,有望應(yīng)用于以<b class='flag-5'>手</b>為中心的健康、運(yùn)動、機(jī)器人和虛

    北京大學(xué)兩部 DeepSeek 秘籍新出爐?。ǜ饺螺d)

    的結(jié)果。 這份文檔還給出了市場營銷、公文寫作、編程開發(fā)、數(shù)據(jù)分析、會議紀(jì)要、學(xué)術(shù)研究多領(lǐng)域的的用法示例,等待大家去發(fā)現(xiàn)。
    發(fā)表于 02-27 17:57

    北大攜智元機(jī)器?團(tuán)隊(duì)提出OmniManip架構(gòu)

    近日,北京大學(xué)與智元機(jī)器人的聯(lián)合實(shí)驗(yàn)室有了重大成果,北?攜?智元機(jī)器?團(tuán)隊(duì)提出 OmniManip 架構(gòu)。 在具身智能領(lǐng)域,將視覺語言基礎(chǔ)模型(VLMs)應(yīng)用于機(jī)器人實(shí)現(xiàn)通用操作一直是核心問題。目前
    的頭像 發(fā)表于 01-24 09:57 ?488次閱讀

    蔣學(xué)剛主任與北京大學(xué)深圳研究系統(tǒng)芯片設(shè)計(jì)重點(diǎn)實(shí)驗(yàn)室主任何進(jìn)教授共赴學(xué)府一小 探索科創(chuàng)教育“芯”路徑

    1月7日上午,RISC—V國際人才培訓(xùn)認(rèn)證中心蔣學(xué)剛主任與北京大學(xué)深圳研究院系統(tǒng)芯片設(shè)計(jì)重點(diǎn)實(shí)驗(yàn)室主任何進(jìn)教授一行人來到學(xué)府一小,受到了張永才書記、黃大耀校長、彭蘇丹副校長、信息科創(chuàng)處主任周大勇
    的頭像 發(fā)表于 01-10 17:52 ?1249次閱讀
    蔣學(xué)剛主任與<b class='flag-5'>北京大學(xué)</b>深圳研究系統(tǒng)芯片設(shè)計(jì)重點(diǎn)實(shí)驗(yàn)室主任何進(jìn)教授共赴學(xué)府一小 探索科創(chuàng)教育“芯”路徑

    凝“芯”聚“心”共赴芯征程丨深圳市學(xué)府一小與北京大學(xué)深圳芯片重點(diǎn)實(shí)驗(yàn)室開展重要互訪交流

    兩彈一星夢少年中國芯01聚焦新時(shí)代“芯”科學(xué)教育少年中國芯發(fā)之于心,而不止于芯1月7日,深圳市南山區(qū)第二外國語學(xué)校(集團(tuán))學(xué)府一小張永才書記,北京大學(xué)深圳芯片重點(diǎn)實(shí)驗(yàn)室主任何進(jìn)教授帶隊(duì)先后在雙方單位
    的頭像 發(fā)表于 01-09 18:03 ?887次閱讀
    凝“芯”聚“心”共赴芯征程丨深圳市學(xué)府一小與<b class='flag-5'>北京大學(xué)</b>深圳芯片重點(diǎn)實(shí)驗(yàn)室開展重要互訪交流

    CES?Asia?2025為何立足北京?

    和科技創(chuàng)新中心,擁有著得天獨(dú)厚的優(yōu)勢。在科技實(shí)力方面,眾多頂尖科研機(jī)構(gòu)和高等院校匯聚于此,為消費(fèi)電子領(lǐng)域不斷輸送著前沿的科研成果和創(chuàng)新理念。中國科學(xué)院、清華大學(xué)、北京大學(xué)科研學(xué)術(shù)重鎮(zhèn),與眾多高新技術(shù)企業(yè)攜手合作,在人工智能、
    的頭像 發(fā)表于 11-23 14:56 ?638次閱讀
    CES?Asia?2025為何立足<b class='flag-5'>北京</b>?

    長沙產(chǎn)業(yè)與北京大模型生態(tài) CXO私享會圓滿舉辦,推動AI大模型+產(chǎn)業(yè)應(yīng)用走深向?qū)?/a>

    、北電數(shù)智、硅基流動北京大模型生態(tài)企業(yè)與在長沙的芒果、馬欄山音視頻實(shí)驗(yàn)室、三一、博世等長沙本土企業(yè),共同探索大模型生態(tài)未來發(fā)展藍(lán)圖。圖/長沙產(chǎn)業(yè)與北京大模型生態(tài)C
    的頭像 發(fā)表于 10-26 08:01 ?871次閱讀
    長沙產(chǎn)業(yè)與<b class='flag-5'>北京大</b>模型生態(tài) CXO私享會圓滿舉辦,推動AI大模型+產(chǎn)業(yè)應(yīng)用走深向?qū)? />    </a>
</div>                              <div   id=

    北京大學(xué)在集成光學(xué)相關(guān)研究取得進(jìn)展

    基于集成高相干并行光源的系統(tǒng) 近日,北京大學(xué)電子學(xué)院常林研究員團(tuán)隊(duì)與王興軍教授團(tuán)隊(duì)和合作者在Nature Communications雜志在線發(fā)表了題為“High-coherence
    的頭像 發(fā)表于 10-25 06:27 ?412次閱讀
    <b class='flag-5'>北京大學(xué)</b>在集成光學(xué)相關(guān)研究取得進(jìn)展

    北京大學(xué)研究團(tuán)隊(duì)在新型激光領(lǐng)域取得重要進(jìn)展

    原理示意圖及1470nm極壞腔激光的實(shí)現(xiàn) 近日,北京大學(xué)電子學(xué)院陳景標(biāo)教授團(tuán)隊(duì)在新型激光領(lǐng)域研究方面取得突破性進(jìn)展,成功利用精細(xì)度達(dá)最低極限值2的光學(xué)諧振腔實(shí)現(xiàn)了線寬在kHz量級的極壞腔主動光鐘激光
    的頭像 發(fā)表于 10-21 06:26 ?466次閱讀
    <b class='flag-5'>北京大學(xué)</b>研究團(tuán)隊(duì)在新型激光領(lǐng)域取得重要進(jìn)展

    RISC-V AI技術(shù)正式納入北京大學(xué)研究生課程

    希姆計(jì)算與北京大學(xué)達(dá)成SOC課程合作2024年10月14日,希姆計(jì)算的范福杰博士走進(jìn)北京大學(xué)集成電路學(xué)院的研究生課堂,為同學(xué)們講授了一節(jié)生動的《現(xiàn)代SoC芯片架構(gòu)設(shè)計(jì)實(shí)驗(yàn)課程》。RISC-V走進(jìn)北大
    的頭像 發(fā)表于 10-18 08:09 ?1077次閱讀
    RISC-V AI技術(shù)正式納入<b class='flag-5'>北京大學(xué)</b>研究生課程

    Aigtek誠邀您蒞臨第五屆超聲換能器及材料技術(shù)研討會!

    2024年10月25-26日,由北京大學(xué)主辦的第五屆超聲換能器及材料技術(shù)研討會將在北京大學(xué)關(guān)新園1號樓召開,屆時(shí)Aigtek安泰電子將攜一眾功放儀器產(chǎn)品及行業(yè)測試解決方案亮相本次大會,我們誠邀您
    的頭像 發(fā)表于 10-18 08:00 ?645次閱讀
    Aigtek誠邀您蒞臨第五屆超聲換能器及材料技術(shù)研討會!

    北京大學(xué)謝濤:基于RISC-V構(gòu)建AI算力的優(yōu)勢和兩種模式

    電子發(fā)燒友網(wǎng)報(bào)道(文/吳子鵬)第四屆滴水湖中國RISC-V產(chǎn)業(yè)論壇上,北京大學(xué)講席教授、RISC-V國際基金會人工智能與機(jī)器學(xué)習(xí)專委會主席謝濤教授進(jìn)行了題為《萬智聯(lián)時(shí)代的RISC-V+AI算力之路
    的頭像 發(fā)表于 08-19 10:41 ?1966次閱讀