一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在檢索任務(wù)中訓(xùn)練數(shù)據(jù)在推理時也大有用處

深度學(xué)習(xí)自然語言處理 ? 來源:NewBeeNLP ? 作者:h1654155273.8628 ? 2022-06-15 10:57 ? 次閱讀

從大規(guī)模數(shù)據(jù)中檢索通常比較耗時,僅從訓(xùn)練數(shù)據(jù)中也能有巨大收益。具體做法是檢索與輸入文本最相似的訓(xùn)練樣例,拼接后作為輸入喂入模型,然后生成結(jié)果。結(jié)果在摘要、翻譯、語言模型和QA上都取得了不錯的效果。

論文:Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data[1]

Code:microsoft/REINA[2]

一句話概述:在檢索任務(wù)中訓(xùn)練數(shù)據(jù)在推理時也大有用處。

文章上來就給我們呈現(xiàn)了整體的結(jié)構(gòu):

b2e83ada-ebed-11ec-ba43-dac502259ad0.jpg

有點類似 Prompt 學(xué)習(xí),但本文主要關(guān)注有監(jiān)督學(xué)習(xí)的設(shè)置。結(jié)果不僅效果很好,而且很容易擴展(只要增加有標(biāo)注訓(xùn)練數(shù)據(jù)就行),計算代價也小。我覺得本文相對最有意思的一個發(fā)現(xiàn)是文中所寫:即便有成噸的參數(shù),一個模型也不能記住訓(xùn)練數(shù)據(jù)中的所有模式。所以,重新捕獲相關(guān)的訓(xùn)練數(shù)據(jù)作為一個手拉手提示器,就可以提供明確的信息來提高模型(推理)的性能。

整體架構(gòu)如下圖所示(REINA):

b316d20a-ebed-11ec-ba43-dac502259ad0.jpg

一張圖其實已經(jīng)很清楚地表達出意思了:對不同的任務(wù)構(gòu)造不同的輸入,但都會將訓(xùn)練數(shù)據(jù)拼接上后再喂入模型,得到最后的答案,這里的答案是通過語言模型生成的。檢索算法使用 BM25。

形式化模型為:

其中,M 表示生成模型,x 是輸入,大括號里的就是 top K 個檢索到的最相似的訓(xùn)練數(shù)據(jù)。

對 QA 任務(wù),將輸入文本和每個選項拼接后作為 query,然后獲取相關(guān)的訓(xùn)練數(shù)據(jù)。如果需要加入外部知識,則調(diào)整為:

其中,C 表示選項。拼接實體字典定義和關(guān)系 R,用來為一個 Q 構(gòu)造知識 K。

Ex 表示與 Q 相關(guān)的實體,Ec 表示與 A 相關(guān)的實體。本文的相關(guān)指:在句子中出現(xiàn)。

用人話簡單描述一下就是:給定 Q,在訓(xùn)練數(shù)據(jù)中找到相似的 QA 對,對每個 QA 對,找到其中所涉及的實體和關(guān)系,然后將實體的定義和關(guān)系也拼接進去,最后組成一長串文本作為模型輸入。

相似檢索使用 Lucene Index,模型訓(xùn)練使用 Transformers。實驗結(jié)果(以文本摘要為例)如下:

b3394fe2-ebed-11ec-ba43-dac502259ad0.jpg

結(jié)果顯示,REINA 可以顯著提升(幾乎所有數(shù)據(jù)集)使用不同預(yù)訓(xùn)練模型初始化的基線。在 case 分析時,作者發(fā)現(xiàn) REINA 的數(shù)據(jù)和真實標(biāo)簽之間有很強的相關(guān)性。

總之,本文的思路非常簡單,但效果卻不錯,在工業(yè)上可以一試,尤其是生成式文本摘要和 QA 任務(wù)。不過,感覺這好像也算是一種 prompt 吧,使用訓(xùn)練數(shù)據(jù)來「拉近」輸入和真實標(biāo)簽之間的距離。

本文參考資料

[1]

Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data: https://arxiv.org/abs/2203.08773

[2]

microsoft/REINA: https://github.com/microsoft/REINA

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7233

    瀏覽量

    90784
  • 檢索
    +關(guān)注

    關(guān)注

    0

    文章

    27

    瀏覽量

    13243

原文標(biāo)題:ACL2022 | 微軟:永遠不要低估你的訓(xùn)練數(shù)據(jù)!

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    使用MicroPython部署的ocrrec_image.py推理得到的輸出結(jié)果很差,如何解決呢?

    使用在線平臺訓(xùn)練OCR識別任務(wù),測試結(jié)果表現(xiàn)很好。 期待結(jié)果和實際結(jié)果 實際的推理結(jié)果很差,推理不出任何信息。
    發(fā)表于 04-29 06:54

    YOLOv5類rgb888p_size這個參數(shù)要與模型推理訓(xùn)練的尺寸一致嗎?一致會達到更好的效果?

    YOLOv5類rgb888p_size這個參數(shù)要與模型推理訓(xùn)練的尺寸一致嗎,一致會達到更好的效果
    發(fā)表于 03-11 08:12

    壁仞科技支持DeepSeek-V3滿血版訓(xùn)練推理

    DeepSeek開源周開源了部分關(guān)鍵模塊的代碼及推理系統(tǒng)參考架構(gòu),再次引發(fā)行業(yè)震動,但目前尚未開源DeepSeek-V3 滿血版完整訓(xùn)練代碼。壁仞科技憑借八大自主創(chuàng)新技術(shù),實現(xiàn)
    的頭像 發(fā)表于 03-04 14:01 ?672次閱讀

    DeepSeek推出NSA機制,加速長上下文訓(xùn)練推理

    的特性,專為超快速的長上下文訓(xùn)練推理而設(shè)計。 NSA通過針對現(xiàn)代硬件的優(yōu)化設(shè)計,顯著加快了推理速度,并大幅度降低了預(yù)訓(xùn)練成本,同時保持了卓越的性能表現(xiàn)。這一機制
    的頭像 發(fā)表于 02-19 14:01 ?525次閱讀

    AI大模型汽車應(yīng)用推理、降本與可解釋性研究

    ,加強大模型對復(fù)雜任務(wù)處理能力和自主決策能力。 部分大模型公司的推理模型發(fā)布情況 來源:佐思汽研《2024-2025年AI大模型及其汽車領(lǐng)域的應(yīng)用研究報告》 推理模型的密集上線,是為
    的頭像 發(fā)表于 02-18 15:02 ?975次閱讀
    AI大模型<b class='flag-5'>在</b>汽車應(yīng)用<b class='flag-5'>中</b>的<b class='flag-5'>推理</b>、降本與可解釋性研究

    FP8大模型訓(xùn)練的應(yīng)用

    。如果在訓(xùn)練時使用 FP8 精度,可以更方便快速的將 FP8 部署到推理側(cè),使 FP8 訓(xùn)練可以更容易順暢地與低精度推理相結(jié)合等。
    的頭像 發(fā)表于 01-23 09:39 ?917次閱讀
    FP8<b class='flag-5'>在</b>大模型<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>中</b>的應(yīng)用

    FP8數(shù)據(jù)格式大型模型訓(xùn)練的應(yīng)用

    本文主要介紹了 FP8 數(shù)據(jù)格式大型模型訓(xùn)練的應(yīng)用、挑戰(zhàn)及最佳實踐,展示了 FP8 提升訓(xùn)練
    的頭像 發(fā)表于 11-19 14:54 ?1319次閱讀
    FP8<b class='flag-5'>數(shù)據(jù)</b>格式<b class='flag-5'>在</b>大型模型<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>中</b>的應(yīng)用

    FPGA和ASIC大模型推理加速的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的推理做了優(yōu)化
    的頭像 發(fā)表于 10-29 14:12 ?1615次閱讀
    FPGA和ASIC<b class='flag-5'>在</b>大模型<b class='flag-5'>推理</b>加速<b class='flag-5'>中</b>的應(yīng)用

    NVIDIA助力麗蟾科技打造AI訓(xùn)練推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業(yè)和科研機構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練推理加速解決方案。無論是復(fù)雜的 AI 開發(fā)任務(wù)
    的頭像 發(fā)表于 10-27 10:03 ?590次閱讀
    NVIDIA助力麗蟾科技打造AI<b class='flag-5'>訓(xùn)練</b>與<b class='flag-5'>推理</b>加速解決方案

    GPU服務(wù)器AI訓(xùn)練的優(yōu)勢具體體現(xiàn)在哪些方面?

    GPU服務(wù)器AI訓(xùn)練的優(yōu)勢主要體現(xiàn)在以下幾個方面: 1、并行處理能力:GPU服務(wù)器擁有大量的并行處理核心,這使得它們能夠同時處理成千上萬個計算任務(wù),極大地加速了AI模型的
    的頭像 發(fā)表于 09-11 13:24 ?804次閱讀

    軟件系統(tǒng)的數(shù)據(jù)檢索設(shè)計

    軟件系統(tǒng)的數(shù)據(jù)檢索設(shè)計 隨著業(yè)務(wù)量加大,數(shù)據(jù)檢索會日益增多,為了減輕數(shù)據(jù)庫壓力,本系統(tǒng)采用ElasticSearch來實現(xiàn)數(shù)據(jù)檢索功能。
    的頭像 發(fā)表于 08-22 14:08 ?420次閱讀
    軟件系統(tǒng)的<b class='flag-5'>數(shù)據(jù)檢索</b>設(shè)計

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    與匹配 模型可能結(jié)合高效檢索技術(shù)來快速定位與問題相關(guān)的信息源。通過匹配算法和索引技術(shù),模型可以從海量數(shù)據(jù)篩選出最相關(guān)的文本片段作為候選答案。 3. 推理與生成
    發(fā)表于 08-02 11:03

    FPGA人工智能的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學(xué)習(xí)加速 訓(xùn)練推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練
    發(fā)表于 07-29 17:05

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    任務(wù)上表現(xiàn)出色,甚至零樣本條件下能取得良好效果。另一類則需要逐步推理才能完成的任務(wù),類似于人類的系統(tǒng)2,如數(shù)字
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的預(yù)訓(xùn)練

    大語言模型的核心特點在于其龐大的參數(shù)量,這賦予了模型強大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對預(yù)訓(xùn)練數(shù)據(jù)的需求
    發(fā)表于 05-07 17:10