一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Prompt范式你們了解多少

深度學習自然語言處理 ? 來源:李rumor ? 作者:rumor ? 2021-09-10 10:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷友們好,我是rumor。

之前我學習Prompt范式的源起PET后就鴿了很久,相信卷友們已經(jīng)把Prompt的論文都追完了,把我遠遠地落在了后面。周末我不甘被卷,奮起直追,連刷三篇paper,希望能趕上大家學習的步伐。

Prefix-tuning- Optimizing continuous prompts for generation

P-tuning-GPT Understands, Too

Prompt-tuning-The Power of Scale for Parameter-Efficient Prompt Tuning

自動化Prompt

Prompt范式的第一個階段,就是在輸入上加Prompt文本,再對輸出進行映射。但這種方式怎么想都不是很優(yōu)雅,無法避免人工的介入。即使有方法可以批量挖掘,但也有些復雜(有這個功夫能標不少高質(zhì)量語料),而且模型畢竟是黑盒,對離散文本輸入的魯棒性很差:

323a6c1c-112f-11ec-8fb8-12bb97331649.jpg

怎么辦呢?離散的不行,那就連續(xù)的唄

用固定的token代替prompt,拼接上文本輸入,當成特殊的embedding輸入,這樣在訓練時也可以對prompt進行優(yōu)化,就減小了prompt挖掘、選擇的成本。

如何加入Prompt

前面的想法非常單純,但實際操作起來還是需要些技巧的。

Prefix-tuning

Prefix-tuning是做生成任務,它根據(jù)不同的模型結(jié)構定義了不同的Prompt拼接方式,在GPT類的自回歸模型上采用[PREFIX, x, y],在T5類的encoder-decoder模型上采用[PREFIX, x, PREFIX‘, y]:

3246ea32-112f-11ec-8fb8-12bb97331649.jpg

值得注意的還有三個改動:

把預訓練大模型freeze住,因為大模型參數(shù)量大,精調(diào)起來效率低,畢竟prompt的出現(xiàn)就是要解決大模型少樣本的適配

作者發(fā)現(xiàn)直接優(yōu)化Prompt參數(shù)不太穩(wěn)定,加了個更大的MLP,訓練完只保存MLP變換后的參數(shù)就行了

實驗證實只加到embedding上的效果不太好,因此作者在每層都加了prompt的參數(shù),改動較大

P-tuning

P-tuning是稍晚些的工作,主要針對NLU任務。對于BERT類雙向語言模型采用模版(P1, x, P2, [MASK], P3),對于單向語言模型采用(P1, x, P2, [MASK]):

3254d11a-112f-11ec-8fb8-12bb97331649.jpg

同時加了兩個改動:

考慮到預訓練模型本身的embedding就比較離散了(隨機初始化+梯度傳回來小,最后只是小范圍優(yōu)化),同時prompt本身也是互相關聯(lián)的,所以作者先用LSTM對prompt進行編碼

在輸入上加入了anchor,比如對于RTE任務,加上一個問號變成[PRE][prompt tokens][HYP]?[prompt tokens][MASK]后效果會更好

P-tuning的效果很好,之前的Prompt模型都是主打小樣本效果,而P-tuning終于在整個數(shù)據(jù)集上超越了精調(diào)的效果:

32612dde-112f-11ec-8fb8-12bb97331649.jpg

雖然P-tuning效果好,但實驗對比也有些問題,它沒有freeze大模型,而是一起精調(diào)的,相當于引入了額外的輸入特征,而平時我們在輸入加個詞法句法信息也會有提升,所以不能完全肯定這個效果是prompt帶來的。同時隨著模型尺寸增大,精調(diào)也會更難。

Prompt-tuning

Prompt-tuning就更加有信服力一些,純憑Prompt撬動了大模型。

Prompt-tuning給每個任務定義了自己的Prompt,拼接到數(shù)據(jù)上作為輸入,同時freeze預訓練模型進行訓練,在沒有加額外層的情況下,可以看到隨著模型體積增大效果越來越好,最終追上了精調(diào)的效果:

326f312c-112f-11ec-8fb8-12bb97331649.jpg

同時,Prompt-tuning還提出了Prompt-ensembling,也就是在一個batch里同時訓練同一個任務的不同prompt,這樣相當于訓練了不同「模型」,比模型集成的成本小多了。

其他Trick

除了怎么加Prompt之外,Prompt向量的初始化和長度也有所講究。

Prompt初始化

Prefix-tuning采用了任務相關的文字進行初始化,而Prompt-tuning發(fā)現(xiàn)在NLU任務上用label文本初始化效果更好。不過隨著模型尺寸的提升,這種gap也會最終消失。

3285c892-112f-11ec-8fb8-12bb97331649.jpg

Prompt長度

從Prompt-tuning的實驗可以看到,長度在10-20時的表現(xiàn)已經(jīng)不錯了,同時這個gap也會隨著模型尺寸的提升而減小。

329143c0-112f-11ec-8fb8-12bb97331649.jpg

總結(jié)

要說上次看PET時我對Prompt范式還是將信將疑,看完這幾篇之后就比較認可了。尤其是Prompt-tuning的一系列實驗,確實證明了增加少量可調(diào)節(jié)參數(shù)可以很好地運用大模型,并且模型能力越強,所需要的prompt人工調(diào)參就越少。

這種參數(shù)化Prompt的方法除了避免「人工」智能外,還有一方面就是省去了Y的映射。因為在精調(diào)的過程中,模型的輸出就被拿捏死了,而且Prompt-tuning還用label初始化Prompt,更加讓模型知道要輸出啥。

Finally,終于追上了前沿,大家的鬼點子可真多啊。

來源:李rumor

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • PET
    PET
    +關注

    關注

    1

    文章

    45

    瀏覽量

    18972
  • MLPM
    +關注

    關注

    0

    文章

    2

    瀏覽量

    6863
  • prompt
    +關注

    關注

    0

    文章

    15

    瀏覽量

    2769

原文標題:Prompt范式,真香

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【Milk-V Duo S 開發(fā)板免費體驗】Milk-V Duo S 開發(fā)板試用報告(6) 美化

    這里的ash還有點問題(如圖6),所以推薦你們使用bash,使用opkg install bash來安裝,再使用opkg install shadow安裝一個可以切換默認shell的工具,最后
    發(fā)表于 06-30 18:39

    物聯(lián)網(wǎng)+低代碼:解鎖高效開發(fā),縱橫智控Node-RED平臺引領新范式

    物聯(lián)網(wǎng)的星辰大海已近在眼前,但抵達彼岸的航程需要更高效的槳帆。低代碼開發(fā),特別是以Node-RED為代表的可視化流編程范式,正在大幅降低物聯(lián)網(wǎng)應用開發(fā)的技術門檻和成本,釋放創(chuàng)新潛能。成都縱橫
    的頭像 發(fā)表于 06-28 14:53 ?328次閱讀
    物聯(lián)網(wǎng)+低代碼:解鎖高效開發(fā),縱橫智控Node-RED平臺引領新<b class='flag-5'>范式</b>

    研華科技攜手九大高校共探新工科人才培養(yǎng)新范式

    研華科技聯(lián)動9大高校,圍繞“制造融合·產(chǎn)教共生”展開深度研討,通過實地參訪+產(chǎn)業(yè)對話雙線并行,共探如何在數(shù)智浪潮中鍛造新工科人才培養(yǎng)新范式
    的頭像 發(fā)表于 06-27 11:13 ?351次閱讀

    AI了,這場盛會,見證傳統(tǒng)工廠的智造創(chuàng)新范式

    領域的創(chuàng)新標桿,中之杰智能攜自主研發(fā)的德沃克OBF智能工廠解決方案,向世界展示了離散智造的中國范式。 ? 在制造業(yè)轉(zhuǎn)型升級的深水區(qū),離散制造領域正經(jīng)歷著前所未有的變革。作為支撐汽車、電子、裝備制造等戰(zhàn)略產(chǎn)業(yè)的核心業(yè)態(tài),離散制造長期困守于多品種、小
    的頭像 發(fā)表于 06-24 07:24 ?351次閱讀
    AI了,這場盛會,見證傳統(tǒng)工廠的智造創(chuàng)新<b class='flag-5'>范式</b>

    ArkUI介紹

    構建與顯示的最小單位,如列表、網(wǎng)格、按鈕、單選框、進度條、文本等。開發(fā)者通過多種組件的組合,構建出滿足自身應用訴求的完整界面。 兩種開發(fā)范式 針對不同的應用場景及技術背景,方舟UI框架提供了兩種開發(fā)
    發(fā)表于 06-24 06:41

    如何將一個FA模型開發(fā)的聲明式范式應用切換到Stage模型

    模型切換概述 本文介紹如何將一個FA模型開發(fā)的聲明式范式應用切換到Stage模型,您需要完成如下動作: 工程切換:新建一個Stage模型的應用工程。 配置文件切換:config.json切換
    發(fā)表于 06-04 06:22

    北京君正如何實現(xiàn)國產(chǎn)芯片的范式跨越

    北京君正的自主內(nèi)核設計,通過底層技術創(chuàng)新與商業(yè)化驗證,實現(xiàn)了國產(chǎn)芯片從“技術跟隨”到“自主引領”的范式跨越。
    的頭像 發(fā)表于 05-27 13:47 ?357次閱讀

    ALVA空間智能視覺焊接方案重構工業(yè)焊接范式

    在智能制造浪潮席卷全球的今天,焊接工藝作為制造業(yè)的核心環(huán)節(jié),正經(jīng)歷著從“經(jīng)驗驅(qū)動”向“數(shù)據(jù)驅(qū)動”的范式躍遷。
    的頭像 發(fā)表于 05-15 11:30 ?427次閱讀

    AUDI攜手Momenta打造豪華智能輔助駕駛新范式

    近日,奧迪新品牌AUDI攜手全球領先的智能駕駛公司Momenta正式宣布,聯(lián)合打造行業(yè)首個“德系電動豪華標準+飛輪大模型”智能輔助駕駛方案,共同定義豪華智能輔助駕駛標準,打造豪華智能輔助駕駛新范式。
    的頭像 發(fā)表于 04-27 10:17 ?382次閱讀

    電子工程師如何利用AI革新設計范式

    在AI重構電子產(chǎn)品設計范式的進程中,工程師們應如何平衡創(chuàng)新與風險,以確保在提升設計效率和產(chǎn)品性能的同時,有效應對安全、隱私和數(shù)據(jù)質(zhì)量等挑戰(zhàn)?
    的頭像 發(fā)表于 03-19 15:17 ?654次閱讀

    西湖大學:科學家+AI,科研新范式的樣本

    研究,創(chuàng)新科研新范式。這一點在西湖大學的科研項目中已得到體現(xiàn)。 成立于2018年的西湖大學是由施一公院士領銜創(chuàng)辦的、聚焦前沿科學研究的研究型大學,該校鼓勵科學家們探索AI與各學科交叉融合,為科研創(chuàng)新提速。為此,西湖大學在浪潮信息等企業(yè)助力下打造
    的頭像 發(fā)表于 12-12 15:59 ?598次閱讀
    西湖大學:科學家+AI,科研新<b class='flag-5'>范式</b>的樣本

    第四范式前三季度營收穩(wěn)健增長

    近日,第四范式發(fā)布了其2024年前9個月的核心業(yè)務進展報告。報告顯示,公司在這一期間取得了顯著的營收增長,累計收入達到人民幣32.18億元,同比增長了26.1%。同時,公司的毛利潤也實現(xiàn)了穩(wěn)步增長
    的頭像 發(fā)表于 11-20 10:57 ?664次閱讀

    東軟引領醫(yī)院智慧服務新范式

    近日,國際數(shù)據(jù)公司(IDC)發(fā)布Vendor Profile《東軟集團:引領“以健康為中心”的醫(yī)院智慧服務新范式》(Doc# CHC52670524,2024年11月)研究報告。
    的頭像 發(fā)表于 11-19 10:28 ?582次閱讀

    AI對話魔法 Prompt Engineering 探索指南

    作者:京東物流 李雪婷 一、什么是 Prompt Engineering? 想象一下,你在和一個智能助手聊天,你需要說出非常清晰和具體的要求,才能得到你想要的答案。Prompt
    的頭像 發(fā)表于 11-07 10:11 ?1451次閱讀
    AI對話魔法 <b class='flag-5'>Prompt</b> Engineering 探索指南

    PPEC:零成本技術交底,賦能電源開發(fā)新范式

    。二、電源開發(fā)方案合作 PPEC電源開發(fā)模式:基于客戶需求進行樣機研發(fā),并交付全套開發(fā)生產(chǎn)技術資料,研發(fā)費用可抵PPEC芯片貨款,實現(xiàn)“0“成本技術交底,賦能電源開發(fā)新范式。▍客戶需求:客戶提出需求
    發(fā)表于 09-06 19:06