一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大連理工提出基于Wasserstein距離(WD)的知識(shí)蒸餾方法

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2025-01-21 09:45 ? 次閱讀

自 Hinton 等人的開創(chuàng)性工作以來,基于 Kullback-Leibler 散度(KL-Div)的知識(shí)蒸餾一直占主導(dǎo)地位。 然而,KL-Div 僅比較教師和學(xué)生在相應(yīng)類別上的概率,缺乏跨類別比較的機(jī)制,應(yīng)用于中間層蒸餾時(shí)存在問題,其無法處理不重疊的分布且無法感知底層流形的幾何結(jié)構(gòu)。

20c8471a-d62a-11ef-9310-92fbcf53809c.gif

為了解決這些問題,大連理工大學(xué)的研究人員提出了一種基于 Wasserstein 距離(WD)的知識(shí)蒸餾方法。所提出方法在圖像分類和目標(biāo)檢測(cè)任務(wù)上均取得了當(dāng)前最好的性能,論文已被 NeurIPS 2024 接受為 Poster。

20ed0b68-d62a-11ef-9310-92fbcf53809c.png

論文標(biāo)題: Wasserstein Distance Rivals Kullback-Leibler Divergence for Knowledge Distillation

論文地址:

https://arxiv.org/abs/2412.08139

項(xiàng)目地址:

https://peihuali.org/WKD/

代碼地址:

https://github.com/JiamingLv/WKD

背景與動(dòng)機(jī)介紹

知識(shí)蒸餾(KD)旨在將具有大容量的高性能教師模型中的知識(shí)遷移到輕量級(jí)的學(xué)生模型中。近年來,知識(shí)蒸餾在深度學(xué)習(xí)中受到了越來越多的關(guān)注,并取得了顯著進(jìn)展,在視覺識(shí)別、目標(biāo)檢測(cè)等多個(gè)領(lǐng)域得到了廣泛應(yīng)用。 在其開創(chuàng)性工作中,Hinton 等人引入了 Kullback-Leibler 散度(KL-Div)用于知識(shí)蒸餾,約束學(xué)生模型的類別概率預(yù)測(cè)與教師模型相似。 從那時(shí)起,KL-Div 在 Logit 蒸餾中占據(jù)主導(dǎo)地位,并且其變體方法 DKD、NKD 等也取得了令人矚目的性能。此外,這些 Logit 蒸餾方法還可以與將知識(shí)從中間層傳遞的許多先進(jìn)方法相互補(bǔ)充。 盡管 KL-Div 取得了巨大的成功,但它存在的兩個(gè)缺點(diǎn)阻礙了教師模型知識(shí)的遷移。 首先,KL-Div 僅比較教師和學(xué)生在相應(yīng)類別上的概率,缺乏執(zhí)行跨類別比較的機(jī)制。 然而,現(xiàn)實(shí)世界中的類別呈現(xiàn)不同程度的視覺相似性,例如,哺乳動(dòng)物物種如狗和狼彼此間的相似度較高,而與汽車和自行車等人工制品則有很大的視覺差異,如圖1所示。

不幸的是,由于 KL-Div 是類別對(duì)類別的比較,KD 和其變體方法無法顯式地利用這種豐富的跨類別知識(shí)。

210e0c6e-d62a-11ef-9310-92fbcf53809c.jpg

▲圖1. 左圖使用t-SNE展示了100個(gè)類別的嵌入分布??梢钥闯?,這些類別在特征空間中表現(xiàn)出豐富的相互關(guān)系 (IR)。然而,右圖中的KL散度無法顯式地利用這些相互關(guān)系。

其次,KL-Div 在用于從中間層特征進(jìn)行知識(shí)蒸餾時(shí)存在局限性。圖像的深度特征通常是高維的且空間尺寸較小,因此其在特征空間中非常稀疏,不僅使得 KL-Div 在處理深度神經(jīng)網(wǎng)絡(luò)特征的分布時(shí)存在困難。 KL-Div 無法處理不重疊的離散分布,并且由于其不是一個(gè)度量,在處理連續(xù)分布時(shí)能力有限,無法感知底層流形的幾何結(jié)構(gòu)。

2124e89e-d62a-11ef-9310-92fbcf53809c.png

▲圖2. 基于Wasserstein距離(WD)的知識(shí)蒸餾方法的總覽圖

為了解決這些問題,研究人員提出了一種基于Wasserstein距離的知識(shí)蒸餾方法,稱為WKD,同時(shí)適用于Logit蒸餾(WKD-L)和Feature蒸餾(WKD-F),如圖2所示。 在WKD-L中,通過離散WD最小化教師和學(xué)生之間預(yù)測(cè)概率的差異,從而進(jìn)行知識(shí)轉(zhuǎn)移。 通過這種方式,執(zhí)行跨類別的比較,能夠有效地利用類別間的相互關(guān)系(IRs),與KL-Div中的類別間比較形成鮮明對(duì)比。 對(duì)于WKD-F,研究人員利用WD從中間層特征中蒸餾知識(shí),選擇參數(shù)化方法來建模特征的分布,并讓學(xué)生直接匹配教師的特征分布。 具體來說,利用一種最廣泛使用的連續(xù)分布(高斯分布),該分布在給定特征的1階和2階矩的情況下具有最大熵。 論文的主要貢獻(xiàn)可以總結(jié)如下:

提出了一種基于離散WD的Logit蒸餾方法(WKD-L),可以通過教師和學(xué)生預(yù)測(cè)概率之間的跨類別比較,利用類別間豐富的相互關(guān)系,克服KL-Div無法進(jìn)行類別間比較的缺點(diǎn)。

將連續(xù)WD引入中間層進(jìn)行Feature蒸餾(WKD-F),可以有效地利用高斯分布的Riemann空間幾何結(jié)構(gòu),優(yōu)于無法感知幾何結(jié)構(gòu)的KL-Div。

在圖像分類和目標(biāo)檢測(cè)任務(wù)中,WKD-L優(yōu)于非常強(qiáng)的基于KL-Div的Logit蒸餾方法,而WKD-F在特征蒸餾中優(yōu)于KL-Div的對(duì)比方法和最先進(jìn)的方法。WKD-L和WKD-F的結(jié)合可以進(jìn)一步提高性能。

用于知識(shí)遷移的WD距離

用于Logit蒸餾的離散WD距離 類別之間的相互關(guān)系(IRs) 如圖1所示,現(xiàn)實(shí)世界中的類別在特征空間中表現(xiàn)出復(fù)雜的拓?fù)潢P(guān)系。相同類別的特征會(huì)聚集并形成一個(gè)分布,而相鄰類別的特征有重疊且不能完全分離。 因此,研究人員提出基于CKA量化類別間的相互關(guān)系(IRs),CKA是一種歸一化的Hilbert-Schmidt獨(dú)立性準(zhǔn)則(HSIC),通過將兩個(gè)特征集映射到再生核希爾伯特空間(RKHS)來建模統(tǒng)計(jì)關(guān)系。 首先將每個(gè)類別中所有訓(xùn)練樣本的特征構(gòu)成一個(gè)特征矩陣,之后通過計(jì)算任意兩個(gè)類別特征矩陣之間的CKA得到類間相互關(guān)系(IR)。計(jì)算IR的成本可以忽略,因?yàn)樵谟?xùn)練前僅需計(jì)算一次。 由于教師模型通常包含更豐富的知識(shí),因此使用教師模型來計(jì)算類別間的相互關(guān)系213f777c-d62a-11ef-9310-92fbcf53809c.png。 損失函數(shù)21491dae-d62a-11ef-9310-92fbcf53809c.png215455ac-d62a-11ef-9310-92fbcf53809c.png分別表示教師模型和學(xué)生模型的預(yù)測(cè)類別概率,其通過softmax函數(shù)和溫度對(duì)Logit計(jì)算得到。將離散的WD表示為一種熵正則化的線性規(guī)劃:

218e6e0e-d62a-11ef-9310-92fbcf53809c.png

其中21a4add6-d62a-11ef-9310-92fbcf53809c.png21b5b338-d62a-11ef-9310-92fbcf53809c.png分別表示每單位質(zhì)量的運(yùn)輸成本和在將概率質(zhì)量從21c7e9c2-d62a-11ef-9310-92fbcf53809c.png移動(dòng)到21d41440-d62a-11ef-9310-92fbcf53809c.png 時(shí)的運(yùn)輸量;21efd144-d62a-11ef-9310-92fbcf53809c.png是正則化參數(shù)。 定義運(yùn)輸成本21a4add6-d62a-11ef-9310-92fbcf53809c.png與相似度度量220d7dac-d62a-11ef-9310-92fbcf53809c.png成負(fù)相關(guān)。 因此,WKD-L的損失函數(shù)可以定義為:

221f48b6-d62a-11ef-9310-92fbcf53809c.png

用于Feature蒸餾的連續(xù)WD距離 特征分布建模 將模型某個(gè)中間層輸出的特征圖重塑為一個(gè)矩陣,其中第i列2231dddc-d62a-11ef-9310-92fbcf53809c.png表示一個(gè)空間特征。 之后,估計(jì)這些特征的一階矩2240e4b2-d62a-11ef-9310-92fbcf53809c.png和二階矩

224b5d52-d62a-11ef-9310-92fbcf53809c.png

,并將二者作為高斯分布的參數(shù)來建模輸入圖像特征的分布。 損失函數(shù) 設(shè)教師的特征分布為高斯分布

225bcfac-d62a-11ef-9310-92fbcf53809c.png

。類似地,學(xué)生的分布記為2265fb76-d62a-11ef-9310-92fbcf53809c.png。 兩者之間的連續(xù)Wasserstein距離(WD)定義為:

226dc3c4-d62a-11ef-9310-92fbcf53809c.png

其中,227e7ce6-d62a-11ef-9310-92fbcf53809c.png22932e3e-d62a-11ef-9310-92fbcf53809c.png是高斯變量,q表示聯(lián)合分布。最小化上式可以得到閉集形式的WD距離。此外,為了平衡均值和協(xié)方差的作用,引入了一個(gè)均值-協(xié)方差比率γ,最后損失定義為:

22a50258-d62a-11ef-9310-92fbcf53809c.png

實(shí)驗(yàn)分析和比較 研究人員在ImageNet和CIFAR-100上評(píng)估了WKD在圖像分類任務(wù)中的表現(xiàn),還評(píng)估了WKD在自蒸餾(Self-KD)中的有效,并且將WKD擴(kuò)展到目標(biāo)檢測(cè),并在MS-COCO上進(jìn)行了實(shí)驗(yàn)。 在ImageNet上的圖像分類 研究人員在ImageNet的在兩種設(shè)置下與現(xiàn)有工作進(jìn)行了比較。設(shè)置(a)涉及同質(zhì)架構(gòu),其中教師和學(xué)生網(wǎng)絡(luò)分別為ResNet34和ResNet18;設(shè)置(b)涉及異質(zhì)架構(gòu),在該設(shè)置中,教師網(wǎng)絡(luò)為ResNet50,學(xué)生網(wǎng)絡(luò)為MobileNetV1。 對(duì)于Logit蒸餾,WKD-L在兩種設(shè)置下均優(yōu)于經(jīng)典的KD及其所有變體。對(duì)于特征蒸餾,WKD-F也超過當(dāng)前的最佳方法ReviewKD;最后,WKD-L和WKD-F的結(jié)合進(jìn)一步提升了性能,超越了強(qiáng)有力的競(jìng)爭(zhēng)方法。

22c3f190-d62a-11ef-9310-92fbcf53809c.png

▲表1. 在ImageNet上的圖像分類結(jié)果

在CIFAR-100上的圖像分類 研究人員在教師模型為CNN、學(xué)生為Transformer或反之的設(shè)置下評(píng)估了WKD方法,使用的CNN模型包括ResNet(RN)、MobileNetV2(MNV2)和ConvNeXt;Transformer模型包括ViT、DeiT和Swin Transformer。 對(duì)于Logit蒸餾,WKD-L在從Transformer到CNN遷移知識(shí)或反之的設(shè)置下始終優(yōu)于最新的OFA方法。對(duì)于特征蒸餾,WKD-F在所有實(shí)驗(yàn)設(shè)置中排名第一; 研究人員認(rèn)為,對(duì)于跨CNN和Transformer的知識(shí)轉(zhuǎn)移,考慮到兩者特征差異較大,WKD-F比像FitNet和CRD這樣直接對(duì)原始特征進(jìn)行對(duì)齊的方法更為合適。

22e1ad20-d62a-11ef-9310-92fbcf53809c.png

▲表2. CIFAR-100上跨CNN和Transformer的圖像分類結(jié)果(Top-1準(zhǔn)確率) 在ImageNet上的自蒸餾 研究人員在Born-Again Network(BAN)框架中將WKD方法用于自蒸餾任務(wù)(Self-KD)。 使用ResNet18在ImageNet上進(jìn)行實(shí)驗(yàn),結(jié)果如表3所示,WKD-L取得了最佳結(jié)果,比BAN的Top-1準(zhǔn)確率高出約0.9%,比第二高的USKD方法高出0.6%。這一比較表明,WKD方法可以很好地推廣到自蒸餾任務(wù)中。

22efcd74-d62a-11ef-9310-92fbcf53809c.png

▲表3. 在ImageNet上自蒸餾(Self-KD)的結(jié)果

在MS-COCO上的目標(biāo)檢測(cè) 研究人員將WKD擴(kuò)展到Faster-RCNN框架下的目標(biāo)檢測(cè)中。對(duì)于WKD-L,使用檢測(cè)頭中的分類分支進(jìn)行Logit蒸餾。對(duì)于WKD-F,直接從輸入到分類分支的特征中進(jìn)行知識(shí)遷移,即從RoIAlign層輸出的特征來計(jì)算高斯分布。 對(duì)于Logit蒸餾,WKD-L顯著優(yōu)于經(jīng)典的KD,并略微優(yōu)于DKD。對(duì)于特征蒸餾,WKD-F在兩個(gè)設(shè)置中均顯著超過之前的最佳特征蒸餾方法ReviewKD。最后,通過結(jié)合WKD-L和WKD-F,表現(xiàn)超過了DKD+ReviewKD。當(dāng)使用額外的邊框回歸進(jìn)行知識(shí)遷移時(shí),WKD-L+WKD-F進(jìn)一步提高并超越了之前的最先進(jìn)方法FCFD。

22ff3d5e-d62a-11ef-9310-92fbcf53809c.png

▲表4. 在MS-COCO上的目標(biāo)檢測(cè)結(jié)果。?:使用了額外的邊框回歸進(jìn)行知識(shí)遷移

總結(jié)

Wasserstein距離(WD)在生成模型等多個(gè)領(lǐng)域中已展現(xiàn)出相較于KL散度(KL-Div)的顯著優(yōu)勢(shì)。 然而,在知識(shí)蒸餾領(lǐng)域,KL散度仍然占據(jù)主導(dǎo)地位,目前尚不清楚Wasserstein距離能否實(shí)現(xiàn)更優(yōu)的表現(xiàn)。 研究人員認(rèn)為,早期基于Wasserstein距離的知識(shí)蒸餾研究未能充分發(fā)揮該度量的潛力。 因此,文中提出了一種基于Wasserstein距離的全新知識(shí)蒸餾方法,能夠從Logit和Feature兩個(gè)方面進(jìn)行知識(shí)遷移。 大量的實(shí)驗(yàn)表明,離散形式的Wasserstein距離在Logit蒸餾中是當(dāng)前主流KL散度的極具潛力的替代方案,而連續(xù)形式的Wasserstein距離在中間層特征遷移中也取得了令人信服的性能表現(xiàn)。

盡管如此,該方法仍存在一定局限性:WKD-L相比基于KL散度的Logit蒸餾方法計(jì)算開銷更高,而WKD-F假設(shè)特征服從高斯分布。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    96

    瀏覽量

    12080
  • 目標(biāo)檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    220

    瀏覽量

    15843

原文標(biāo)題:NeurIPS 2024 | 超越KL!大連理工提出WKD:基于WD距離的知識(shí)蒸餾新方法

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    WD400-110S24P1 WD400-110S24P1

    電子發(fā)燒友網(wǎng)為你提供AIPULNION(AIPULNION)WD400-110S24P1相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有WD400-110S24P1的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,WD400-110S24P1真值表,
    發(fā)表于 03-21 18:39
    <b class='flag-5'>WD</b>400-110S24P1 <b class='flag-5'>WD</b>400-110S24P1

    WD100-110S24N1 WD100-110S24N1

    電子發(fā)燒友網(wǎng)為你提供AIPULNION(AIPULNION)WD100-110S24N1相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有WD100-110S24N1的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,WD100-110S24N1真值表,
    發(fā)表于 03-21 18:36
    <b class='flag-5'>WD</b>100-110S24N1 <b class='flag-5'>WD</b>100-110S24N1

    WD150-110S24Q1 WD150-110S24Q1

    電子發(fā)燒友網(wǎng)為你提供AIPULNION(AIPULNION)WD150-110S24Q1相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有WD150-110S24Q1的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,WD150-110S24Q1真值表,
    發(fā)表于 03-21 18:36
    <b class='flag-5'>WD</b>150-110S24Q1 <b class='flag-5'>WD</b>150-110S24Q1

    WD150-110S24N1 WD150-110S24N1

    電子發(fā)燒友網(wǎng)為你提供AIPULNION(AIPULNION)WD150-110S24N1相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有WD150-110S24N1的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,WD150-110S24N1真值表,
    發(fā)表于 03-21 18:35
    <b class='flag-5'>WD</b>150-110S24N1 <b class='flag-5'>WD</b>150-110S24N1

    WD75-110S24M1 WD75-110S24M1

    電子發(fā)燒友網(wǎng)為你提供AIPULNION(AIPULNION)WD75-110S24M1相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有WD75-110S24M1的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,WD75-110S24M1真值表,
    發(fā)表于 03-21 18:34
    <b class='flag-5'>WD</b>75-110S24M1 <b class='flag-5'>WD</b>75-110S24M1

    WD50-110S24K1 WD50-110S24K1

    電子發(fā)燒友網(wǎng)為你提供AIPULNION(AIPULNION)WD50-110S24K1相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有WD50-110S24K1的引腳圖、接線圖、封裝手冊(cè)、中文資料、英文資料,WD50-110S24K1真值表,
    發(fā)表于 03-20 18:59
    <b class='flag-5'>WD</b>50-110S24K1 <b class='flag-5'>WD</b>50-110S24K1

    研華KB Insight智能知識(shí)理工具加速工業(yè)智能化

    為應(yīng)對(duì)新型工業(yè)化進(jìn)程中“經(jīng)驗(yàn)未數(shù)字化”與“數(shù)據(jù)未業(yè)務(wù)化”的雙重困局,研華 IoTSuite 工業(yè)物聯(lián)網(wǎng)平臺(tái) & AIoT 數(shù)智應(yīng)用開發(fā)工具包全新發(fā)布又一利器—— KB Insight 智能知識(shí)理工具,助力企業(yè)知識(shí)資產(chǎn)的智能應(yīng)用
    的頭像 發(fā)表于 03-10 10:18 ?410次閱讀

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    近日,摩爾線程智能科技(北京)有限責(zé)任公司在其官方渠道發(fā)布了一則重要消息,宣布公司已經(jīng)成功實(shí)現(xiàn)了對(duì)DeepSeek蒸餾模型推理服務(wù)的部署。這一技術(shù)突破,標(biāo)志著摩爾線程在人工智能領(lǐng)域邁出了堅(jiān)實(shí)的一步
    的頭像 發(fā)表于 02-06 13:49 ?629次閱讀

    大連理工和南信大-紫光同創(chuàng)FPGA創(chuàng)新實(shí)踐基地揭牌

    為了深化產(chǎn)教融合,加快推進(jìn)國產(chǎn)FPGA人才培養(yǎng),紫光同創(chuàng)與大連理工大學(xué)軟件學(xué)院及南京信息工程大學(xué)工程訓(xùn)練中心達(dá)成合作,共同建設(shè)FPGA聯(lián)合創(chuàng)新實(shí)踐基地。
    的頭像 發(fā)表于 12-06 09:25 ?764次閱讀

    華旋傳感亮相大工汽車人產(chǎn)業(yè)論壇,共研新能源產(chǎn)業(yè)升級(jí)

    11月30日,大連理工大學(xué)汽車產(chǎn)業(yè)論壇企業(yè)家·閉門會(huì)在上海盛大召開,匯聚企業(yè)界與學(xué)術(shù)界精英,共謀汽車行業(yè)技術(shù)創(chuàng)新、產(chǎn)業(yè)升級(jí)與可持續(xù)發(fā)展之道。此次論壇秉持ESG責(zé)任理念,全程無紙化操作,以實(shí)際行動(dòng)助力
    的頭像 發(fā)表于 12-04 11:32 ?560次閱讀
    華旋傳感亮相大工汽車人產(chǎn)業(yè)論壇,共研新能源產(chǎn)業(yè)升級(jí)

    大連理工大學(xué)EMBA走進(jìn)研華科技

    近日, 來自大連理工大學(xué)EMBA的企業(yè)家們走進(jìn)研華科技,研華(中國)工業(yè)物聯(lián)網(wǎng)總經(jīng)理蔡奇男熱情接待,并分享研華在智能制造的先進(jìn)經(jīng)驗(yàn),及制造業(yè)企業(yè)數(shù)智化轉(zhuǎn)型的成果。
    的頭像 發(fā)表于 11-18 15:47 ?508次閱讀

    觸覺傳感重磅《Nature》!無線、低功耗、多刺激模式觸覺電子皮膚(附原論文)

    中有廣泛的應(yīng)用。在觸覺傳感方面,已有眾多Nature、Science子刊發(fā)表,但是Nature正刊卻仍十分稀少。 ? ? ????? 近日,美國西北大學(xué)John A. Rogers/黃永剛大連理工大學(xué)解兆謙聯(lián)合團(tuán)隊(duì)提出了一個(gè)微型化的機(jī)電結(jié)構(gòu),當(dāng)與皮膚結(jié)合時(shí),能
    的頭像 發(fā)表于 11-14 18:13 ?1535次閱讀
    觸覺傳感重磅《Nature》!無線、低功耗、多刺激模式觸覺電子皮膚(附原論文)

    普源精電和大連理工大學(xué)校企合作交流會(huì)成功舉辦

    普源精電科技股份有限公司與大連理工大學(xué)創(chuàng)新創(chuàng)業(yè)學(xué)院校企合作交流會(huì)于創(chuàng)新創(chuàng)業(yè)學(xué)院402會(huì)議室成功舉辦。會(huì)議由創(chuàng)新創(chuàng)業(yè)學(xué)院副院長吳振宇主持,普源精電中國區(qū)市場(chǎng)總監(jiān)孫曉川、教育計(jì)劃經(jīng)理江佳慧、渠道銷售經(jīng)理
    的頭像 發(fā)表于 10-12 09:07 ?634次閱讀

    OpenHarmony年度技術(shù)俱樂部、個(gè)人及活動(dòng)評(píng)選結(jié)果公示

    蘭州大學(xué)OpenHarmony技術(shù)俱樂部 華中科技大學(xué)OpenHarmony技術(shù)俱樂部 菁英教育OpenHarmony技術(shù)俱樂部 大連理工大學(xué)Ope
    的頭像 發(fā)表于 10-05 08:07 ?456次閱讀

    阿里達(dá)摩院提出知識(shí)鏈”框架,降低大模型幻覺

    近日,阿里巴巴達(dá)摩院(湖畔實(shí)驗(yàn)室)攜手新加坡南洋理工大學(xué)等研究機(jī)構(gòu),共同推出了大模型知識(shí)鏈(CoK)框架。該框架不僅可實(shí)時(shí)檢索異構(gòu)知識(shí)源,還能逐步糾正推理錯(cuò)誤,有效提高了大模型在回答知識(shí)
    的頭像 發(fā)表于 05-10 11:46 ?866次閱讀