一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

智能感知與物聯(lián)網(wǎng)技術(shù)研究所

文章:422 被閱讀:179.2w 粉絲數(shù):24 關(guān)注數(shù):0 點贊數(shù):11

廣告

2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室2023年第

2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室202....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-16 21:20 ?721次閱讀
2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室2023年第

2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室2023年第二次學(xué)術(shù)會議(三)

指導(dǎo)單位:山西省人力資源和社會保障廳 主辦單位:太原理工大學(xué) 承辦單位:大數(shù)據(jù)融合分析與應(yīng)用山西省重....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-15 20:45 ?720次閱讀

2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室2023年第二次學(xué)術(shù)會議(二)

指導(dǎo)單位:山西省人力資源和社會保障廳 主辦單位:太原理工大學(xué) 承辦單位:大數(shù)據(jù)融合分析與應(yīng)用山西省重....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-14 18:50 ?533次閱讀

2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室2023年第二次學(xué)術(shù)會議(一)

指導(dǎo)單位:山西省人力資源和社會保障廳 主辦單位:太原理工大學(xué) 承辦單位:大數(shù)據(jù)融合分析與應(yīng)用山西省重....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-13 20:05 ?483次閱讀

用語言建模世界:UC伯克利多模態(tài)世界模型利用語言預(yù)測未來

當(dāng)前,人與智能體(比如機器人)的交互是非常直接的,你告訴它「拿一塊藍(lán)色的積木」,它就會幫你拿過來。但....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-06 22:05 ?754次閱讀
用語言建模世界:UC伯克利多模態(tài)世界模型利用語言預(yù)測未來

UniVL-DR: 多模態(tài)稠密向量檢索模型

論文標(biāo)題: Universal Vision-Language Dense Retrieval: L....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-06 22:00 ?1294次閱讀
UniVL-DR: 多模態(tài)稠密向量檢索模型

檢測并消除瑕疵,DeSRA讓真實場景超分中的GAN更加完美

使用生成對抗網(wǎng)絡(luò)(GAN)進行圖像超分辨率(SR)已經(jīng)在恢復(fù)逼真細(xì)節(jié)方面取得了巨大成功。然而,眾所周....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-06 22:00 ?673次閱讀
檢測并消除瑕疵,DeSRA讓真實場景超分中的GAN更加完美

AI提高自動駕駛夜視能力,檢測黑夜、霧天場景和白天一樣

未來,HADAR 可能會徹底改變自動駕駛汽車和機器人感知周圍世界的方式。 環(huán)境感知是自動駕駛領(lǐng)域非常....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-30 22:35 ?878次閱讀
AI提高自動駕駛夜視能力,檢測黑夜、霧天場景和白天一樣

動態(tài)蛇形卷積(Dynamic Snake Convolution)用于管狀結(jié)構(gòu)分割

論文題目: Dyn amic Snake Convolution based on Topologi....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-30 22:35 ?3123次閱讀
動態(tài)蛇形卷積(Dynamic Snake Convolution)用于管狀結(jié)構(gòu)分割

PVT++:通用的端對端預(yù)測性跟蹤框架

本文提出通用的端對端預(yù)測性跟蹤框架 PVT++,旨在解決目標(biāo)跟蹤的部署時的延遲問題。多種預(yù)訓(xùn)練跟蹤器....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-30 22:30 ?2333次閱讀
PVT++:通用的端對端預(yù)測性跟蹤框架

讓Attention提速9倍!FlashAttention燃爆顯存,Transformer上下文長度史詩級提升

FlashAttention新升級!斯坦福博士一人重寫算法,第二代實現(xiàn)了最高9倍速提升。 繼超快且省....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-24 16:55 ?1477次閱讀
讓Attention提速9倍!FlashAttention燃爆顯存,Transformer上下文長度史詩級提升

基礎(chǔ)模型自監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

大型語言模型如 ChatGPT 的成功彰顯了海量數(shù)據(jù)在捕捉語言模式和知識方面的巨大潛力,這也推動了基....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-24 16:55 ?889次閱讀
基礎(chǔ)模型自監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

語言模型做先驗,統(tǒng)一強化學(xué)習(xí)智能體,DeepMind選擇走這條通用AI之路

在智能體的開發(fā)中,強化學(xué)習(xí)與大語言模型、視覺語言模型等基礎(chǔ)模型的進一步融合究竟能擦出怎樣的火花?谷歌....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-24 16:55 ?827次閱讀
語言模型做先驗,統(tǒng)一強化學(xué)習(xí)智能體,DeepMind選擇走這條通用AI之路

智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(五)

原文標(biāo)題:智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(五) 文章出處:【微信公眾號:智能....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-24 15:15 ?627次閱讀

智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(四)

原文標(biāo)題:智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(四) 文章出處:【微信公眾號:智能....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-21 07:35 ?637次閱讀

智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(三)

原文標(biāo)題:智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(三) 文章出處:【微信公眾號:智能....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-20 07:35 ?722次閱讀

智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(二)

原文標(biāo)題:智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(二) 文章出處:【微信公眾號:智能....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-19 07:25 ?656次閱讀

智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(一)

原文標(biāo)題:智能感知與物聯(lián)網(wǎng)技術(shù)研究所2021級碩士研究生中期報告(一) 文章出處:【微信公眾號:智能....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-18 07:20 ?618次閱讀

CVPR 2023 | 完全無監(jiān)督的視頻物體分割 RCF

TLDR: 視頻分割一直是重標(biāo)注的一個 task,這篇 CVPR 2023 文章研究了完全不需要標(biāo)注....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-16 20:45 ?978次閱讀
CVPR 2023 | 完全無監(jiān)督的視頻物體分割 RCF

更強更通用:智源「悟道3.0」Emu多模態(tài)大模型開源,在多模態(tài)序列中「補全一切」

當(dāng)前學(xué)界和工業(yè)界都對多模態(tài)大模型研究熱情高漲。去年,谷歌的 Deepmind 發(fā)布了多模態(tài)視覺語言模....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-16 20:45 ?1025次閱讀
更強更通用:智源「悟道3.0」Emu多模態(tài)大模型開源,在多模態(tài)序列中「補全一切」

CVPR 2023 | 華科&MSRA新作:基于CLIP的輕量級開放詞匯語義分割架構(gòu)

本文提出了 SAN 框架,用于開放詞匯語義分割。該框架成功地利用了凍結(jié)的 CLIP 模型的特征以及端....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-10 10:05 ?1600次閱讀
CVPR 2023 | 華科&MSRA新作:基于CLIP的輕量級開放詞匯語義分割架構(gòu)

VisCPM:邁向多語言多模態(tài)大模型時代

隨著 GPT-4 和 Stable Diffusion 等模型多模態(tài)能力的突飛猛進,多模態(tài)大模型已經(jīng)....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-10 10:05 ?1001次閱讀
VisCPM:邁向多語言多模態(tài)大模型時代

“數(shù)字山西 校企共創(chuàng)”專題研討會

? 為促進我省數(shù)字化產(chǎn)業(yè)轉(zhuǎn)型升級,探索校企共創(chuàng)數(shù)字化新模式,太原理工大學(xué) 大數(shù)據(jù)融合分析與應(yīng)用山西省....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-07 22:35 ?496次閱讀

理解指向,說出坐標(biāo),Shikra開啟多模態(tài)大模型參考對話新維度

在人類的日常交流中,經(jīng)常會關(guān)注場景中不同的區(qū)域或物體,人們可以通過說話并 指向這些區(qū)域 來進行高效的....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-02 20:55 ?599次閱讀
理解指向,說出坐標(biāo),Shikra開啟多模態(tài)大模型參考對話新維度

大模型幫陶哲軒解題、證明數(shù)學(xué)定理:數(shù)學(xué)真要成為首個借助AI實現(xiàn)突破的學(xué)科了?

數(shù)學(xué)將成為第一門借助AI實現(xiàn)重大突破的學(xué)科? 去年 2 月份,DeepMind 發(fā)布了編程輔助利器 ....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-02 20:55 ?714次閱讀
大模型幫陶哲軒解題、證明數(shù)學(xué)定理:數(shù)學(xué)真要成為首個借助AI實現(xiàn)突破的學(xué)科了?

類GPT模型訓(xùn)練提速26.5%,清華朱軍等人用INT4算法加速神經(jīng)網(wǎng)絡(luò)訓(xùn)練

我們知道,將激活、權(quán)重和梯度量化為 4-bit 對于加速神經(jīng)網(wǎng)絡(luò)訓(xùn)練非常有價值。但現(xiàn)有的 4-bit....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 07-02 20:35 ?973次閱讀
類GPT模型訓(xùn)練提速26.5%,清華朱軍等人用INT4算法加速神經(jīng)網(wǎng)絡(luò)訓(xùn)練

語音領(lǐng)域的GPT時刻:Meta 發(fā)布「突破性」生成式語音系統(tǒng),一個通用模型解決多項任務(wù)

繼開源 LLaMA 之后,Meta 在生成式 AI 方向又公布一項重大研究。 我們知道,GPT、DA....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 06-18 21:30 ?1005次閱讀
語音領(lǐng)域的GPT時刻:Meta 發(fā)布「突破性」生成式語音系統(tǒng),一個通用模型解決多項任務(wù)

CVPR 2023 | 清華大學(xué)提出LiVT,用視覺Transformer學(xué)習(xí)長尾數(shù)據(jù)

背景 在機器學(xué)習(xí)領(lǐng)域中,學(xué)習(xí)不平衡的標(biāo)注數(shù)據(jù)一直是一個常見而具有挑戰(zhàn)性的任務(wù)。近年來,視覺 Tran....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 06-18 21:30 ?729次閱讀
CVPR 2023 | 清華大學(xué)提出LiVT,用視覺Transformer學(xué)習(xí)長尾數(shù)據(jù)

隨時隨地,追蹤每個像素,連遮擋都不怕的「追蹤一切」視頻算法來了

Tracking Everything Everywhere All at Once. 前段時間,M....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 06-11 21:40 ?701次閱讀
隨時隨地,追蹤每個像素,連遮擋都不怕的「追蹤一切」視頻算法來了

ICLR 2023 Spotlight|節(jié)省95%訓(xùn)練開銷,清華黃隆波團隊提出強化學(xué)習(xí)專用稀疏訓(xùn)練框架RLx2

大模型時代,模型壓縮和加速顯得尤為重要。傳統(tǒng)監(jiān)督學(xué)習(xí)可通過稀疏神經(jīng)網(wǎng)絡(luò)實現(xiàn)模型壓縮和加速,那么同樣需....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 06-11 21:40 ?981次閱讀
ICLR 2023 Spotlight|節(jié)省95%訓(xùn)練開銷,清華黃隆波團隊提出強化學(xué)習(xí)專用稀疏訓(xùn)練框架RLx2