一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

智能感知與物聯(lián)網(wǎng)技術(shù)研究所

文章:422 被閱讀:179.2w 粉絲數(shù):24 關(guān)注數(shù):0 點贊數(shù):11

廣告

NeurIPS 2023 | AI Agents先行者CAMEL:首個基于大模型的多智能體框架

AI Agents 是當下大模型領(lǐng)域備受關(guān)注的話題,用戶可以引入多個扮演不同角色的 LLM Agen....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-26 21:25 ?1648次閱讀
NeurIPS 2023 | AI Agents先行者CAMEL:首個基于大模型的多智能體框架

全新近似注意力機制HyperAttention:對長上下文友好、LLM推理提速50%

本文介紹了一項近似注意力機制新研究,耶魯大學、谷歌研究院等機構(gòu)提出了 HyperAttention,....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-20 09:15 ?838次閱讀
全新近似注意力機制HyperAttention:對長上下文友好、LLM推理提速50%

13B模型全方位碾壓GPT-4?這背后有什么貓膩

你的測試集信息在訓練集中泄漏了嗎? 一個參數(shù)量為 13B 的模型竟然打敗了頂流 GPT-4?就像下圖....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-20 09:15 ?666次閱讀

把ChatGPT塞進副駕駛!清華、中科院、MIT聯(lián)合提出Co-Pilot人機交互框架

作為本年度人工智能領(lǐng)域最重要的突破之一,大語言模型相關(guān)研究始終是各大相關(guān)領(lǐng)域的關(guān)注焦點。 近日,來自....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-20 09:10 ?888次閱讀
把ChatGPT塞進副駕駛!清華、中科院、MIT聯(lián)合提出Co-Pilot人機交互框架

NeurIPS 2023 | 北大具身智能團隊提出需求驅(qū)動導(dǎo)航:對齊人類需求,讓機器人更高效

如果想讓機器人幫助你,你通常需要下達一個較為精準的指令,但指令在實際中的實現(xiàn)效果不一定理想。如果考慮....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-12 22:05 ?721次閱讀

Runway新功能「運動筆刷」再次驚艷AI圈:隨手一涂,圖片就動起來了

網(wǎng)友:我都不敢想 象一年后的視頻技術(shù)會有多先進。 一段五十秒的預(yù)告視頻,再次讓 AI 圈沸騰了。 昨....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-12 22:00 ?1238次閱讀
Runway新功能「運動筆刷」再次驚艷AI圈:隨手一涂,圖片就動起來了

從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

Paper List:? https://github.com/westlake-repl/Reco....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-12 22:00 ?1146次閱讀
從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

重新審視Transformer:倒置更有效,真實世界預(yù)測的新SOTA出現(xiàn)了

Transformer 在時間序列預(yù)測中出現(xiàn)了強大能力,可以描述成對依賴關(guān)系和提取序 列中的多層次表....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-05 20:15 ?864次閱讀
重新審視Transformer:倒置更有效,真實世界預(yù)測的新SOTA出現(xiàn)了

178頁,128個案例,GPT-4V醫(yī)療領(lǐng)域全面測評,離臨床應(yīng)用與實際決策尚有距離

上海交大上海AI Lab發(fā)布178頁GPT-4V醫(yī)療案例測評,首次全面揭秘GPT-4V醫(yī)療領(lǐng)域視覺性....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-05 20:15 ?782次閱讀
178頁,128個案例,GPT-4V醫(yī)療領(lǐng)域全面測評,離臨床應(yīng)用與實際決策尚有距離

NeurIPS 2023 | 如何從理論上研究生成式數(shù)據(jù)增強的效果?

論文鏈接: https://arxiv.org/abs/2305.17476 代碼鏈接: https....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 11-05 20:15 ?951次閱讀
NeurIPS 2023 | 如何從理論上研究生成式數(shù)據(jù)增強的效果?

NeurIPS 2023 | 大模型時代自監(jiān)督預(yù)訓練的隱性長尾偏見

離開學校加入公司的業(yè)務(wù)部門已經(jīng)半年多了,往后應(yīng)該會努力抽時間做點開源項目,但暫時沒什么計劃再發(fā)一作論....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-30 11:05 ?738次閱讀
NeurIPS 2023 | 大模型時代自監(jiān)督預(yù)訓練的隱性長尾偏見

幻覺降低30%!首個多模態(tài)大模型幻覺修正工作Woodpecker

視覺幻覺是常見于多模態(tài)大語言模型 (Multimodal Large Language Models....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-30 11:05 ?809次閱讀
幻覺降低30%!首個多模態(tài)大模型幻覺修正工作Woodpecker

參數(shù)少近一半,性能逼近谷歌Minerva,又一個數(shù)學大模型開源了

大模型家族來了一個專門解決數(shù)學問題的「新成員」——Llemma。 如今,在各種文本混合數(shù)據(jù)上訓練出來....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-23 09:40 ?648次閱讀
參數(shù)少近一半,性能逼近谷歌Minerva,又一個數(shù)學大模型開源了

ICCV 2023 | 面向視覺-語言導(dǎo)航的實體-標志物對齊自適應(yīng)預(yù)訓練方法

本文是 ICCV 2023 入選 Oral 論文 Grounded Entity-Landmark ....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-23 09:40 ?1235次閱讀
ICCV 2023 | 面向視覺-語言導(dǎo)航的實體-標志物對齊自適應(yīng)預(yù)訓練方法

NeurIPS 2023 | 全新的自監(jiān)督視覺預(yù)訓練代理任務(wù):DropPos

論文標題: DropPos: Pre-Training Vision Transformers by....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-15 20:25 ?738次閱讀
NeurIPS 2023 | 全新的自監(jiān)督視覺預(yù)訓練代理任務(wù):DropPos

Continuous Batching:解鎖LLM潛力!讓LLM推斷速度飆升23倍,降低延遲!

本文介紹一篇 LLM 推理加速技術(shù) 相關(guān)的文章,值得讀一讀。 LLMs 在現(xiàn)實應(yīng)用中的計算成本主要由....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-15 20:25 ?1005次閱讀
Continuous Batching:解鎖LLM潛力!讓LLM推斷速度飆升23倍,降低延遲!

CityDreamer:一鍵生成無邊界的3D城市

近些年,3D 自然場景的生成出現(xiàn)了大量的研究工作,但是 3D 城市生成的研究工作還寥寥無幾。這主要是....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-15 20:25 ?705次閱讀

NeurIPS 2023 | 擴散模型解決多任務(wù)強化學習問題

擴散模型(diffusion model)在 CV 領(lǐng)域甚至 NLP 領(lǐng)域都已經(jīng)有了令人印象深刻的表....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-02 10:45 ?1276次閱讀
NeurIPS 2023 | 擴散模型解決多任務(wù)強化學習問題

ICCV 2023 | 超越SAM!EntitySeg:更少的數(shù)據(jù),更高的分割質(zhì)量

稠密圖像分割問題一直在計算機視覺領(lǐng)域中備受關(guān)注。無論是在 Adobe 旗下的 Photoshop 等....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-02 10:40 ?1213次閱讀
ICCV 2023 | 超越SAM!EntitySeg:更少的數(shù)據(jù),更高的分割質(zhì)量

讓人恐懼的是,機器狗已經(jīng)能做這種事了

只用一個神經(jīng)網(wǎng)絡(luò)實現(xiàn)操縱,四足機器人的重大技術(shù)突破。 跑酷是一項極限運動,需要參與者以高度動態(tài)的方式....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 10-02 10:40 ?486次閱讀
讓人恐懼的是,機器狗已經(jīng)能做這種事了

為什么transformer性能這么好?Transformer的上下文學習能力是哪來的?

為什么 transformer 性能這么好?它給眾多大語言模型帶來的上下文學習 (In-Contex....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 09-25 12:05 ?1667次閱讀
為什么transformer性能這么好?Transformer的上下文學習能力是哪來的?

ICML 2023 | 對多重圖進行解耦的表示學習方法

Introduction 無監(jiān)督多重圖表示學習(UMGRL)受到越來越多的關(guān)注,但很少有工作同時關(guān)注....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 09-24 20:45 ?1588次閱讀
ICML 2023 | 對多重圖進行解耦的表示學習方法

大語言模型(LLM)預(yù)訓練數(shù)據(jù)集調(diào)研分析

大語言模型涉及數(shù)據(jù)的通常有有多個階段(Aligning language models to fol....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 09-19 10:00 ?1632次閱讀
大語言模型(LLM)預(yù)訓練數(shù)據(jù)集調(diào)研分析

TPAMI 2023 | 用于視覺識別的相互對比學習在線知識蒸餾

本次文章介紹我們于 TPAMI-2023 發(fā)表的一項用于視覺識別的相互對比學習在線知識蒸餾(Onli....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 09-19 10:00 ?1297次閱讀
TPAMI 2023 | 用于視覺識別的相互對比學習在線知識蒸餾

CCV 2023 | SparseBEV:高性能、全稀疏的純視覺3D目標檢測器

本文介紹在3D 目標檢測領(lǐng)域的新工作:SparseBEV。我們所處的 3D 世界是稀疏的,因此稀疏 ....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 09-19 10:00 ?1489次閱讀
CCV 2023 | SparseBEV:高性能、全稀疏的純視覺3D目標檢測器

ICCV 2023 | 重塑人體動作生成,融合擴散模型與檢索策略的新范式ReMoDiffuse來了

人體動作生成任務(wù)旨在生成逼真的人體動作序列,以滿足娛樂、虛擬現(xiàn)實、機器人技術(shù)等領(lǐng)域的需求。傳統(tǒng)的生成....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 09-10 22:30 ?1095次閱讀
ICCV 2023 | 重塑人體動作生成,融合擴散模型與檢索策略的新范式ReMoDiffuse來了

谷歌證實大模型能頓悟,特殊方法能讓模型快速泛化,或?qū)⒋蚱拼竽P秃谙?/a>

在特定情況下,人工智能模型會超越訓練數(shù)據(jù)進行泛化。在人工智能研究中,這種現(xiàn)象被稱為「頓悟」,而谷歌現(xiàn)....
谷歌證實大模型能頓悟,特殊方法能讓模型快速泛化,或?qū)⒋蚱拼竽P秃谙? />    </a>
</div><div   id=

2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室2023年第

由山西省人力資源和社會保障廳指導(dǎo)、太原理工大學主辦、大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室承辦的202....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-23 19:05 ?1729次閱讀
2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室2023年第

2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室2023年第二次學術(shù)會議(六)

指導(dǎo)單位:山西省人力資源和社會保障廳 主辦單位:太原理工大學 承辦單位:大數(shù)據(jù)融合分析與應(yīng)用山西省重....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-19 08:45 ?543次閱讀

2023年人社部“數(shù)智化關(guān)鍵技術(shù)的發(fā)展與應(yīng)用”高級研修班暨大數(shù)據(jù)融合分析與應(yīng)用山西省重點實驗室2023年第二次學術(shù)會議(五)

指導(dǎo)單位:山西省人力資源和社會保障廳 主辦單位:太原理工大學 承辦單位:大數(shù)據(jù)融合分析與應(yīng)用山西省重....
的頭像 智能感知與物聯(lián)網(wǎng)技術(shù)研究所 發(fā)表于 08-18 08:25 ?512次閱讀