一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于雙級(jí)優(yōu)化(BLO)的消除過(guò)擬合的微調(diào)方法

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 2024-04-02 16:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要:低秩適應(yīng)(LoRA)是在下游任務(wù)中通過(guò)學(xué)習(xí)低秩增量矩陣對(duì)大規(guī)模預(yù)訓(xùn)練模型進(jìn)行微調(diào)的一種流行方法。雖然與完全微調(diào)方法相比,LoRA 及其變體能有效減少可訓(xùn)練參數(shù)的數(shù)量,但它們經(jīng)常會(huì)對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行過(guò)擬合,導(dǎo)致測(cè)試數(shù)據(jù)的泛化效果不理想。為了解決這個(gè)問(wèn)題,我們引入了 BiLoRA,這是一種基于雙級(jí)優(yōu)化(BLO)的消除過(guò)擬合的微調(diào)方法。BiLoRA 采用偽奇異值分解來(lái)參數(shù)化低秩增量矩陣,并將偽奇異向量和偽奇異值的訓(xùn)練分成兩個(gè)不同的訓(xùn)練數(shù)據(jù)子集。這種分割嵌入了 BLO 框架的不同層次,降低了對(duì)單一數(shù)據(jù)集過(guò)度擬合的風(fēng)險(xiǎn)。BiLoRA 在涵蓋自然語(yǔ)言理解和生成任務(wù)的十個(gè)數(shù)據(jù)集上進(jìn)行了測(cè)試,并應(yīng)用于各種著名的大型預(yù)訓(xùn)練模型,在可訓(xùn)練參數(shù)數(shù)量相似的情況下,BiLoRA 明顯優(yōu)于 LoRA 方法和其他微調(diào)方法。

ab0027e4-f01c-11ee-a297-92fbcf53809c.png

ab24d706-f01c-11ee-a297-92fbcf53809c.png

https://arxiv.org/abs/2403.13037

Q1: 這篇論文試圖解決什么問(wèn)題?

A:這篇論文試圖解決的問(wèn)題是大型預(yù)訓(xùn)練模型在下游任務(wù)中進(jìn)行微調(diào)時(shí)出現(xiàn)的過(guò)擬合問(wèn)題。盡管低秩適應(yīng)(LoRA)及其變體通過(guò)學(xué)習(xí)低秩增量矩陣有效地減少了與完全微調(diào)方法相比的可訓(xùn)練參數(shù)數(shù)量,但這些方法往往容易過(guò)擬合訓(xùn)練數(shù)據(jù),導(dǎo)致在測(cè)試數(shù)據(jù)上泛化性能不佳。為了解決這個(gè)問(wèn)題,論文引入了基于雙層優(yōu)化(BLO)的BiLoRA方法,通過(guò)在不同的訓(xùn)練數(shù)據(jù)子集上分別訓(xùn)練偽奇異向量和奇異值來(lái)減輕過(guò)擬合的風(fēng)險(xiǎn)。

Q2: 有哪些相關(guān)研究?

A:這篇論文提到了幾項(xiàng)與BiLoRA相關(guān)的研究領(lǐng)域,具體包括:

低秩適應(yīng)(Low-Rank Adaptation, LoRA):

Li et al. (2018) 和 Aghajanyan et al. (2020) 展示了預(yù)訓(xùn)練模型具有很低的內(nèi)在維度,并且可以通過(guò)使用低秩參數(shù)化來(lái)實(shí)現(xiàn)與全參數(shù)微調(diào)相當(dāng)?shù)男阅堋?/p>

Hu et al. (2021) 提出了LoRA,通過(guò)將低秩更新矩陣引入到預(yù)訓(xùn)練的權(quán)重矩陣中來(lái)實(shí)現(xiàn)。

其他方法如DyLoRA (Valipour et al., 2022),QLoRA (Dettmers et al., 2023),和LoraHub (Huang et al., 2023) 旨在提高LoRA的效率和性能。

雙層優(yōu)化(Bi-level Optimization, BLO):

BLO在元學(xué)習(xí)(Finn et al., 2017; Rajeswaran et al., 2019),超參數(shù)優(yōu)化(Franceschi et al., 2017; Lorraine et al., 2020),神經(jīng)架構(gòu)搜索(Liu et al., 2018; Zhang et al., 2021),強(qiáng)化學(xué)習(xí)(Rajeswaran et al., 2020)等領(lǐng)域得到了廣泛應(yīng)用。

提出了多種算法來(lái)解決這種特定形式的優(yōu)化問(wèn)題,包括零階方法如貝葉斯優(yōu)化(Cui & Bai, 2019),一階算法基于超梯度(Pearlmutter & Siskind, 2008; Lorraine et al., 2020)等。

其他微調(diào)方法:

Full Fine-Tuning (FT) 是一種常用的適應(yīng)方法,涉及對(duì)所有模型參數(shù)進(jìn)行梯度更新。

Bias-only 或 BitFit (Zaken et al., 2021) 只訓(xùn)練偏置向量,而保持預(yù)訓(xùn)練模型中的其他參數(shù)不變。

Prefix-embedding tuning 和 Prefix-layer tuning 是在輸入嵌入或Transformer層之間插入可訓(xùn)練的特定參數(shù)。

Adapter tuning (Houlsby et al., 2019) 通過(guò)在神經(jīng)模塊之間插入適配器來(lái)適應(yīng)模型。

這些相關(guān)研究為BiLoRA的開發(fā)提供了理論基礎(chǔ)和技術(shù)背景。BiLoRA通過(guò)結(jié)合LoRA的低秩更新和BLO的雙層優(yōu)化策略,旨在提高大型預(yù)訓(xùn)練模型在特定下游任務(wù)中的泛化能力和微調(diào)效率。

Q3: 論文如何解決這個(gè)問(wèn)題?

ab3690fe-f01c-11ee-a297-92fbcf53809c.png

A:為了解決大型預(yù)訓(xùn)練模型在下游任務(wù)微調(diào)時(shí)的過(guò)擬合問(wèn)題,論文提出了BiLoRA(Bi-level Optimization Framework for Overfitting-Resilient Low-Rank Adaptation)方法,具體解決方案如下:

雙層優(yōu)化(Bi-level Optimization, BLO):

BiLoRA采用雙層優(yōu)化框架,將參數(shù)學(xué)習(xí)分為兩個(gè)層次。在較低層次,優(yōu)化偽奇異向量(P和Q),在較高層次,優(yōu)化偽奇異值(Λ)。

參數(shù)化低秩增量矩陣:

類似于奇異值分解(SVD),每個(gè)低秩增量矩陣?W被參數(shù)化為?W = PΛQ,其中P和Q是偽左/右奇異向量矩陣,Λ是偽奇異值對(duì)角矩陣。

通過(guò)正則化項(xiàng)(R1)鼓勵(lì)P和Q的近似正交性。

分離訓(xùn)練過(guò)程:

在較低層次,固定Λ,僅在訓(xùn)練數(shù)據(jù)集D1的一個(gè)子集上訓(xùn)練P和Q。

在較高層次,使用從較低層次得到的最優(yōu)P和Q(記為V*(Λ)),在剩余的數(shù)據(jù)集D2上訓(xùn)練Λ。

迭代優(yōu)化:

通過(guò)迭代方式交替解決兩個(gè)層次的優(yōu)化問(wèn)題,直到收斂。

正則化偽奇異值:

提供了三種偽奇異值的參數(shù)化形式:實(shí)值(Real-Value)、Softmax和近似二值(Approximately Binary),以控制不同奇異向量對(duì)最終模型的貢獻(xiàn)。

高效的訓(xùn)練框架:

利用基于梯度的優(yōu)化算法,特別是針對(duì)高維問(wèn)題和大量可訓(xùn)練參數(shù)的情況。

ab491346-f01c-11ee-a297-92fbcf53809c.png

通過(guò)這種方法,BiLoRA能夠在不同的數(shù)據(jù)子集上分別學(xué)習(xí)模型的架構(gòu)(Λ)和候選操作(P和Q),從而有效地減少了對(duì)單一數(shù)據(jù)集的過(guò)擬合風(fēng)險(xiǎn),并提高了模型在測(cè)試數(shù)據(jù)上的泛化性能。論文通過(guò)在多個(gè)自然語(yǔ)言理解和生成任務(wù)的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),證明了BiLoRA與其他微調(diào)方法相比,在保持相似數(shù)量的可訓(xùn)練參數(shù)的同時(shí),能夠取得更好的性能。

Q4: 論文做了哪些實(shí)驗(yàn)?

ab9b9c38-f01c-11ee-a297-92fbcf53809c.png

A:論文中進(jìn)行了一系列的實(shí)驗(yàn)來(lái)驗(yàn)證BiLoRA方法的有效性和性能,具體包括:

自然語(yǔ)言理解(NLU)任務(wù):

在GLUE基準(zhǔn)測(cè)試上評(píng)估了RoBERTa和DeBERTa模型。GLUE包含多種NLU任務(wù),包括情感分析、語(yǔ)義相似性評(píng)估、自然語(yǔ)言推理等。

使用開發(fā)集作為測(cè)試數(shù)據(jù),因?yàn)镚LUE的測(cè)試集不公開。

將訓(xùn)練集分為兩個(gè)子集,分別作為雙層優(yōu)化中的下層(D1)和上層(D2)數(shù)據(jù)集。

自然語(yǔ)言生成(NLG)任務(wù):

在E2E NLG挑戰(zhàn)賽上評(píng)估了GPT-2中大型模型。這個(gè)數(shù)據(jù)集用于評(píng)估端到端、數(shù)據(jù)驅(qū)動(dòng)的自然語(yǔ)言生成系統(tǒng)。

遵循Prefix-Tuning和LoRA的設(shè)置,并與LoRA和其他微調(diào)方法進(jìn)行直接比較。

不同參數(shù)化形式的實(shí)驗(yàn):

對(duì)偽奇異值的三種參數(shù)化形式(Real Value、Softmax和Approximately Binary)進(jìn)行了實(shí)驗(yàn),以評(píng)估它們對(duì)模型性能的影響。

超參數(shù)γ1的影響分析:

分析了正交性促進(jìn)正則化項(xiàng)中超參數(shù)γ1的不同取值對(duì)RoBERTa-base性能的影響。

計(jì)算成本比較:

比較了LoRA和BiLoRA在訓(xùn)練時(shí)間上的差異,以評(píng)估BiLoRA在減少總訓(xùn)練時(shí)間方面的效率。

與其他過(guò)擬合緩解方法的比較:

對(duì)比了增加權(quán)重衰減和采用更激進(jìn)的秩修剪設(shè)置這兩種常見的過(guò)擬合緩解方法在AdaLoRA上的效果。

擴(kuò)展到大型模型的性能評(píng)估:

使用DeBERTa-v2xxlarge(1.5億參數(shù))模型評(píng)估了BiLoRA在非常大型模型上的擴(kuò)展性能。

這些實(shí)驗(yàn)覆蓋了從模型微調(diào)、正則化策略分析、不同參數(shù)化形式的比較,到計(jì)算效率和大規(guī)模模型適應(yīng)性的全面評(píng)估,充分證明了BiLoRA方法在減少過(guò)擬合、提高泛化能力和計(jì)算效率方面的優(yōu)勢(shì)。

abb7488e-f01c-11ee-a297-92fbcf53809c.png

Q5: 有什么可以進(jìn)一步探索的點(diǎn)?

A:論文中提到了幾個(gè)可以進(jìn)一步探索的研究方向和潛在的改進(jìn)點(diǎn):

偽奇異值的參數(shù)化形式:

論文中提出了三種偽奇異值的參數(shù)化形式:實(shí)值、Softmax和近似二值。未來(lái)的研究可以探索更多種類的參數(shù)化方法,特別是支持自動(dòng)秩選擇的參數(shù)化形式。

理論分析:

BiLoRA的雙層優(yōu)化框架提高了微調(diào)模型的泛化能力。未來(lái)的工作可以對(duì)這種優(yōu)化策略的理論和實(shí)際效果進(jìn)行更深入的分析,以更好地理解其工作原理。

超參數(shù)調(diào)整:

盡管BiLoRA的超參數(shù)調(diào)整相對(duì)簡(jiǎn)單,但進(jìn)一步的研究可以探索自動(dòng)化超參數(shù)優(yōu)化技術(shù),例如貝葉斯優(yōu)化或進(jìn)化算法,以提高BiLoRA的性能和效率。

不同模型架構(gòu)的適應(yīng)性:

論文中的實(shí)驗(yàn)主要針對(duì)RoBERTa、DeBERTa和GPT-2模型。BiLoRA方法在其他類型的模型架構(gòu)上的效果和適用性值得進(jìn)一步研究。

更廣泛的任務(wù)和數(shù)據(jù)集:

盡管BiLoRA在多個(gè)NLU和NLG任務(wù)上表現(xiàn)出色,但在更多種類的任務(wù)和更大規(guī)模的數(shù)據(jù)集上的性能尚未得到驗(yàn)證。未來(lái)的研究可以在這些方面進(jìn)行擴(kuò)展。

計(jì)算效率:

盡管BiLoRA已經(jīng)顯示出比LoRA更少的訓(xùn)練時(shí)間,但仍有進(jìn)一步提高計(jì)算效率的空間,例如通過(guò)優(yōu)化迭代優(yōu)化步驟或并行化技術(shù)。

模型解釋性:

BiLoRA通過(guò)分開訓(xùn)練偽奇異向量和值來(lái)減少過(guò)擬合。研究這種訓(xùn)練策略如何影響模型的可解釋性和決策過(guò)程可能是一個(gè)有趣的方向。

長(zhǎng)期影響和適應(yīng)性:

研究BiLoRA在長(zhǎng)期部署和適應(yīng)新任務(wù)或數(shù)據(jù)時(shí)的表現(xiàn),以及如何整合新知識(shí)以最小化性能下降。

這些潛在的研究方向可以進(jìn)一步推動(dòng)BiLoRA方法的發(fā)展,并擴(kuò)展其在自然語(yǔ)言處理和其他機(jī)器學(xué)習(xí)領(lǐng)域的應(yīng)用。

Q6: 總結(jié)一下論文的主要內(nèi)容?

A:這篇論文的主要內(nèi)容可以總結(jié)如下:

標(biāo)題: BiLoRA: A Bi-level Optimization Framework for Overfitting-Resilient Low-Rank Adaptation of Large Pre-trained Models

問(wèn)題陳述: 大型預(yù)訓(xùn)練模型在下游任務(wù)中的微調(diào)經(jīng)常面臨過(guò)擬合問(wèn)題,導(dǎo)致模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測(cè)試數(shù)據(jù)上泛化能力不足。

方法: 為了解決這個(gè)問(wèn)題,論文提出了BiLoRA,一個(gè)基于雙層優(yōu)化(BLO)的微調(diào)方法。BiLoRA通過(guò)偽奇異值分解(pseudo SVD)的形式參數(shù)化低秩增量矩陣,并在兩個(gè)不同的訓(xùn)練數(shù)據(jù)子集上分別訓(xùn)練偽奇異向量和偽奇異值。

關(guān)鍵創(chuàng)新:

引入雙層優(yōu)化框架,將參數(shù)學(xué)習(xí)分為兩個(gè)層次,分別優(yōu)化偽奇異向量和偽奇異值。

在不同的數(shù)據(jù)子集上訓(xùn)練參數(shù),減少了對(duì)單一數(shù)據(jù)集的過(guò)擬合風(fēng)險(xiǎn)。

提出了三種偽奇異值的參數(shù)化形式:實(shí)值、Softmax和近似二值。

實(shí)驗(yàn):

在GLUE基準(zhǔn)測(cè)試上對(duì)RoBERTa和DeBERTa模型進(jìn)行了評(píng)估。

在E2E NLG挑戰(zhàn)賽上對(duì)GPT-2模型進(jìn)行了評(píng)估。

對(duì)比了BiLoRA與LoRA、AdaLoRA和其他微調(diào)方法的性能。

分析了不同參數(shù)化形式和超參數(shù)設(shè)置對(duì)模型性能的影響。

結(jié)果: BiLoRA在多個(gè)自然語(yǔ)言理解和生成任務(wù)上顯著優(yōu)于LoRA方法和其他微調(diào)方法,同時(shí)保持了相似數(shù)量的可訓(xùn)練參數(shù)。

結(jié)論: BiLoRA是一個(gè)有效的微調(diào)方法,可以減少大型預(yù)訓(xùn)練模型的過(guò)擬合問(wèn)題,并提高模型在測(cè)試數(shù)據(jù)上的泛化性能。論文還提出了未來(lái)研究的潛在方向,包括改進(jìn)參數(shù)化形式、理論分析和計(jì)算效率等。

這篇論文為大型預(yù)訓(xùn)練模型的微調(diào)提供了一個(gè)新的視角,并通過(guò)實(shí)驗(yàn)驗(yàn)證了其有效性。BiLoRA方法的提出,為NLP社區(qū)提供了一個(gè)有價(jià)值的工具,以提高模型在各種下游任務(wù)中的性能。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25453
  • LoRa
    +關(guān)注

    關(guān)注

    352

    文章

    1780

    瀏覽量

    234899
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13656
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3146

    瀏覽量

    4076

原文標(biāo)題:每日論文速遞 | BiLoRA: 基于雙極優(yōu)化消除LoRA過(guò)擬合

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深層神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練:過(guò)擬合優(yōu)化

    為了訓(xùn)練出高效可用的深層神經(jīng)網(wǎng)絡(luò)模型,在訓(xùn)練時(shí)必須要避免過(guò)擬合的現(xiàn)象。過(guò)擬合現(xiàn)象的優(yōu)化方法通常有三種。
    的頭像 發(fā)表于 12-02 14:17 ?3136次閱讀
    深層神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練:過(guò)<b class='flag-5'>擬合</b><b class='flag-5'>優(yōu)化</b>

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型基礎(chǔ)上,使用新的、特定任務(wù)相關(guān)的數(shù)據(jù)
    發(fā)表于 01-14 16:51

    基于SLM的樣條擬合優(yōu)化工具箱

    這是一個(gè)國(guó)外朋友自己做的“l(fā)east squares splines”優(yōu)化工具箱,做的相當(dāng)不錯(cuò)!?。?!你只需要安裝好這個(gè)優(yōu)化工具箱,用法超簡(jiǎn)單。首先傳上優(yōu)化工具箱:接下來(lái)演示擬合過(guò)程,
    發(fā)表于 03-06 00:34

    封裝級(jí)微調(diào)與其它失調(diào)校正法的比較

    作者:Art Kay德州儀器 封裝級(jí)微調(diào)是一種半導(dǎo)體制造方法,可實(shí)現(xiàn)高度精確的放大器及其它線性電路。放大器精確度的主要測(cè)量指標(biāo)是其輸入失調(diào)電壓。輸入失調(diào)電壓是以微伏為單位的放大器輸入端誤差電壓。該
    發(fā)表于 09-18 07:56

    曲線擬合的判定方法

    判定方法曲線擬合也叫曲線逼近,只要求擬合曲線能合理的反映數(shù)據(jù)的基本趨勢(shì),并不要求曲線一定通過(guò)數(shù)據(jù)點(diǎn)。曲線擬合有不同的判別準(zhǔn)則,偏差的絕對(duì)值之和最小偏差的最大絕對(duì)值最小偏差的平方和最小(
    發(fā)表于 08-17 08:31

    基于G 的ANFIS在函數(shù)擬合中的應(yīng)用

    本文介紹了一種遺傳算法(GA)優(yōu)化自適應(yīng)神經(jīng)模糊推理系統(tǒng)(ANFIS)的方法,并采用基于GA 優(yōu)化ANFIS 方法,擬合非線性多峰函數(shù),同時(shí)
    發(fā)表于 07-07 15:01 ?31次下載

    GPS高程擬合方法研究

    通過(guò)TGO1.6V商用軟件平臺(tái)對(duì)采集的GPS數(shù)據(jù)進(jìn)行處理,然后就具體工程項(xiàng)目進(jìn)行GPS高程擬合方法研究、數(shù)據(jù)處理和精度分析,比較不同擬合方法的可行性,得出了工程項(xiàng)目的最優(yōu)解
    發(fā)表于 10-14 16:14 ?22次下載

    BLO509 BLO510管腳電路圖

    BLO509 BLO510管腳電路圖
    發(fā)表于 07-02 10:56 ?785次閱讀
    <b class='flag-5'>BLO</b>509 <b class='flag-5'>BLO</b>510管腳電路圖

    BLO509 BLO510型電路方塊電路圖

    BLO509 BLO510型電路方塊電路圖
    發(fā)表于 07-02 10:57 ?840次閱讀
    <b class='flag-5'>BLO</b>509 <b class='flag-5'>BLO</b>510型電路方塊電路圖

    萊特準(zhǔn)則的橢圓擬合優(yōu)化算法

    普遍使用的代數(shù)距離最小的最小二乘( LS)橢圓擬合算法簡(jiǎn)單、易實(shí)現(xiàn),但對(duì)樣本點(diǎn)無(wú)選擇,導(dǎo)致擬合結(jié)果易受誤差點(diǎn)影響,擬合不準(zhǔn)確。針對(duì)此特性,提出了一種基于萊特準(zhǔn)則的橢圓擬合
    發(fā)表于 12-07 16:57 ?1次下載
    萊特準(zhǔn)則的橢圓<b class='flag-5'>擬合</b><b class='flag-5'>優(yōu)化</b>算法

    PCB設(shè)計(jì):消除過(guò)孔至過(guò)孔耦合噪聲的技巧

    消除過(guò)孔至過(guò)孔耦合噪聲的技巧 眾所周知,多層 PCB 設(shè)計(jì)可以減輕高速信號(hào)電路的 EMI / EMC 效應(yīng)。導(dǎo)電通孔可在 PCB 的多個(gè)層之間提供連通性,為設(shè)計(jì)人員提供了分離 AC 和 DC 信號(hào)
    的頭像 發(fā)表于 09-18 23:43 ?3637次閱讀

    基于DFP優(yōu)化的大規(guī)模數(shù)據(jù)點(diǎn)擬合方法

    DFP方法(由 Davidon, Fletcher和 Powell3人共同提出)是求解無(wú)約束優(yōu)化問(wèn)題的一種經(jīng)典方法,文中指出數(shù)據(jù)點(diǎn)的擬合問(wèn)題可轉(zhuǎn)化為無(wú)約束
    發(fā)表于 04-21 10:57 ?7次下載
    基于DFP<b class='flag-5'>優(yōu)化</b>的大規(guī)模數(shù)據(jù)點(diǎn)<b class='flag-5'>擬合</b><b class='flag-5'>方法</b>

    基于LSPIA的NURBS曲線擬合優(yōu)化算法

    )的 NURBS曲線擬合優(yōu)化算法。首先,確定一條初始 NURBS曲線,利用SPIA算法優(yōu)化控制頂點(diǎn);然后,分別優(yōu)化數(shù)據(jù)點(diǎn)參數(shù),擬合曲線的節(jié)點(diǎn)
    發(fā)表于 04-27 10:47 ?10次下載
    基于LSPIA的NURBS曲線<b class='flag-5'>擬合</b><b class='flag-5'>優(yōu)化</b>算法

    電化學(xué)交流阻抗擬合原理與方法

    電化學(xué)交流阻抗擬合原理與方法
    的頭像 發(fā)表于 02-08 10:02 ?1988次閱讀

    四種微調(diào)大模型的方法介紹

    微調(diào)(Full Fine-tuning):全微調(diào)是指對(duì)整個(gè)預(yù)訓(xùn)練模型進(jìn)行微調(diào),包括所有的模型參數(shù)。在這種方法中,預(yù)訓(xùn)練模型的所有層和參數(shù)都會(huì)被更新和
    發(fā)表于 01-03 10:57 ?2.6w次閱讀
    四種<b class='flag-5'>微調(diào)</b>大模型的<b class='flag-5'>方法</b>介紹