一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

中國研究人員提出StructGPT,提高LLM對結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

Qxwdz168 ? 來源:計算機(jī)視覺芯片設(shè)計 ? 2023-05-24 16:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大型語言模型 (LLM) 最近在自然語言處理 (NLP) 方面取得了重大進(jìn)展?,F(xiàn)有研究表明,LLM) 具有很強(qiáng)的零樣本和少樣本能力,可以借助專門創(chuàng)建的提示完成各種任務(wù),而無需針對特定任務(wù)進(jìn)行微調(diào)。盡管它們很有效,但根據(jù)目前的研究,LLM 可能會產(chǎn)生與事實知識不符的不真實信息,并且無法掌握特定領(lǐng)域或?qū)崟r的專業(yè)知識。這些問題可以通過在LLM中添加外部知識源來修復(fù)錯誤的生成來直接解決。

4fed7bc6-fa05-11ed-90ce-dac502259ad0.jpg

結(jié)構(gòu)化數(shù)據(jù),如數(shù)據(jù)庫和知識圖譜,已被常規(guī)用于在各種資源中攜帶 LLM 所需的知識。但是,由于結(jié)構(gòu)化數(shù)據(jù)使用 LLM 在預(yù)訓(xùn)練期間未接觸過的獨(dú)特數(shù)據(jù)格式或模式,因此他們可能需要幫助才能理解它們。與純文本相反,結(jié)構(gòu)化數(shù)據(jù)以一致的方式排列并遵循特定的數(shù)據(jù)模型。數(shù)據(jù)表按行排列為列索引記錄,而知識圖 (KG) 經(jīng)常組織為描述頭尾實體之間關(guān)系的事實三元組。

盡管結(jié)構(gòu)化數(shù)據(jù)的體量往往非常巨大,但不可能容納輸入提示中的所有數(shù)據(jù)記錄(例如,ChatGPT 的最大上下文長度為 4096)。將結(jié)構(gòu)化數(shù)據(jù)線性化為 LLM 可以輕松掌握的語句是解決此問題的簡單方法。工具操作技術(shù)激勵他們增強(qiáng) LLM 解決上述困難的能力。他們策略背后的基本思想是使用專門的接口來更改結(jié)構(gòu)化數(shù)據(jù)記錄(例如,通過提取表的列)。在這些接口的幫助下,他們可以更精確地定位完成特定活動所需的證據(jù),并成功地限制數(shù)據(jù)記錄的搜索范圍。

來自中國人民大學(xué)、北京市大數(shù)據(jù)管理與分析方法重點(diǎn)實驗室和中國電子科技大學(xué)的研究人員在這項研究中著重于為某些任務(wù)設(shè)計合適的接口,并將它們用于 LLM 的推理,這些接口是應(yīng)用界面增強(qiáng)方法需要解決的兩個主要問題。以這種方式,LLM 可以根據(jù)從界面收集的證據(jù)做出決定。為此,他們在本研究中提供了一種稱為 StructGPT 的迭代閱讀然后推理 (IRR) 方法,用于解決基于結(jié)構(gòu)化數(shù)據(jù)的任務(wù)。他們的方法考慮了完成各種活動的兩個關(guān)鍵職責(zé):收集相關(guān)數(shù)據(jù)(閱讀)和假設(shè)正確的反應(yīng)或為下一步行動制定策略(推理)。

據(jù)他們所知,這是第一項著眼于如何使用單一范式幫助 LLM 對各種形式的結(jié)構(gòu)化數(shù)據(jù)(例如表、KG 和 DB)進(jìn)行推理的研究。從根本上說,他們將 LLM 的閱讀和推理兩個過程分開:他們使用結(jié)構(gòu)化數(shù)據(jù)接口來完成精確、有效的數(shù)據(jù)訪問和過濾,并依靠他們的推理能力來確定下一步的行動或查詢的答案。

對于外部接口,他們特別建議調(diào)用線性化生成過程,以幫助 LLM 理解結(jié)構(gòu)化數(shù)據(jù)并做出決策。通過使用提供的接口重復(fù)此過程,他們可能會逐漸接近對查詢的期望響應(yīng)。

他們對各種任務(wù)(例如基于知識圖譜的問答、基于表的問答和基于數(shù)據(jù)庫的文本到 SQL)進(jìn)行了全面試驗,以評估其技術(shù)的有效性。八個數(shù)據(jù)集的實驗結(jié)果表明,他們建議的方法可能會顯著提高 ChatGPT 在結(jié)構(gòu)化數(shù)據(jù)上的推理性能,甚至達(dá)到與全數(shù)據(jù)監(jiān)督調(diào)優(yōu)方法競爭的水平。

? KGQA。他們的方法使 KGQA 挑戰(zhàn)的 WebQSP 上的 Hits@1 增加了 11.4%。借助他們的方法,ChatGPT 在多跳 KGQA 數(shù)據(jù)集(例如 MetaQA-2hop 和 MetaQA-3hop)中的性能可能分別提高了 62.9% 和 37.0%。

? 質(zhì)量保證表。在 TableQA 挑戰(zhàn)中,與直接使用 ChatGPT 相比,他們的方法在 WTQ 和 WikiSQL 中將標(biāo)注準(zhǔn)確度提高了大約 3% 到 5%。在 TabFact 中,他們的方法將表格事實驗證的準(zhǔn)確性提高了 4.2%。

? 文本到SQL。在 Text-to-SQL 挑戰(zhàn)中,與直接使用 ChatGPT 相比,他們的方法將三個數(shù)據(jù)集的執(zhí)行準(zhǔn)確性提高了約 4%。

作者已經(jīng)發(fā)布了 Spider 和 TabFact 的代碼,可以幫助理解 StructGPT 的框架,整個代碼庫尚未發(fā)布。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)管理
    +關(guān)注

    關(guān)注

    1

    文章

    312

    瀏覽量

    20014
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14144
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    7993
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    325

    瀏覽量

    828

原文標(biāo)題:中國研究人員提出StructGPT,提高LLM對結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

文章出處:【微信號:計算機(jī)視覺芯片設(shè)計,微信公眾號:計算機(jī)視覺芯片設(shè)計】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    結(jié)構(gòu)化布線系統(tǒng)有哪些難題

    在15年建筑物整修周期內(nèi)限制系統(tǒng)的升級。經(jīng)過精心設(shè)計的結(jié)構(gòu)化布線系統(tǒng)可以承受超過大多數(shù)局域網(wǎng)傳輸速率10~15倍的數(shù)據(jù)流量。這將允許在不改變結(jié)構(gòu)化布線系統(tǒng)的情況下使用新型網(wǎng)絡(luò)技術(shù)?! ?.通用
    發(fā)表于 05-19 13:46

    泰克儀器助力研究人員首次通過太赫茲復(fù)用器實現(xiàn)超高速數(shù)據(jù)傳輸

    通過使用基于光子的THz電路來橋接光纖和無線電的世界,以實現(xiàn)超高數(shù)據(jù)速率。但是,不管要實現(xiàn)什么的系統(tǒng),信號復(fù)用和解復(fù)用系統(tǒng)(復(fù)用器/解復(fù)用器)都是基本要求。研究人員使用兩個平行的金屬板的波導(dǎo)系統(tǒng),把
    發(fā)表于 08-31 15:58

    TrustZone結(jié)構(gòu)化消息是什么?

    大家好,我已閱讀任何與TrustZone相關(guān)的內(nèi)容,但我無法弄清楚這兩個世界是如何相互溝通的。我所能找到的只是TrustZone API規(guī)范中的內(nèi)容:客戶端和服務(wù)可以通過兩種機(jī)制進(jìn)行通信:結(jié)構(gòu)化
    發(fā)表于 03-20 08:58

    結(jié)構(gòu)化設(shè)計分為哪幾部分?結(jié)構(gòu)化設(shè)計的要求有哪些

    結(jié)構(gòu)化設(shè)計分為哪幾部分?結(jié)構(gòu)化設(shè)計的要求有哪些?結(jié)構(gòu)化設(shè)計主要包括哪些部分?
    發(fā)表于 12-23 06:15

    白光LED結(jié)構(gòu)化涂層制備及其應(yīng)用研究

      實驗名稱:基于電場誘導(dǎo)的白光LED結(jié)構(gòu)化涂層制備及其應(yīng)用研究  研究方向:電場誘導(dǎo)結(jié)構(gòu)制備工藝試驗研究  實驗內(nèi)容:  本文主要圍繞:平
    發(fā)表于 03-29 15:44

    融合樣本學(xué)習(xí)和小樣本學(xué)習(xí)的弱監(jiān)督學(xué)習(xí)方法綜述

    等現(xiàn)實挑戰(zhàn),很多學(xué)者針對數(shù)據(jù)依賴小的弱監(jiān)督學(xué)習(xí)方法開展研究,出現(xiàn)了小樣本學(xué)習(xí)、樣本學(xué)習(xí)等典型研究
    發(fā)表于 02-09 11:22 ?2714次閱讀
    融合<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)和小<b class='flag-5'>樣本</b>學(xué)習(xí)的弱監(jiān)督學(xué)習(xí)方法綜述

    形狀感知樣本語義分割

    由于大規(guī)模視覺語言預(yù)訓(xùn)練取得了令人矚目的進(jìn)展,最近的識別模型可以以驚人的高準(zhǔn)確度對任意對象進(jìn)行樣本和開放式分類。
    的頭像 發(fā)表于 04-28 11:26 ?1118次閱讀
    形狀感知<b class='flag-5'>零</b><b class='flag-5'>樣本</b>語義分割

    一個通用的自適應(yīng)prompt方法,突破了樣本學(xué)習(xí)的瓶頸

    為了解決這個問題,這篇研究提出了一種Universal Self-adaptive Prompting (USP)方法,對LLMs的樣本學(xué)習(xí)進(jìn)行了優(yōu)化,同時也適用于少
    的頭像 發(fā)表于 06-01 14:48 ?1107次閱讀
    一個通用的自適應(yīng)prompt方法,突破了<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)的瓶頸

    基準(zhǔn)數(shù)據(jù)集(CORR2CAUSE)如何測試大語言模型(LLM)的純因果推理能力

    ? 因果推理是人類智力的標(biāo)志之一。因果關(guān)系NLP領(lǐng)域近年來引起了人們的極大興趣,但其主要依賴于從常識知識中發(fā)現(xiàn)因果關(guān)系。研究提出了一個基準(zhǔn)數(shù)據(jù)
    的頭像 發(fā)表于 06-20 15:39 ?2402次閱讀
    基準(zhǔn)<b class='flag-5'>數(shù)據(jù)</b>集(CORR2CAUSE)如何測試大語言模型(<b class='flag-5'>LLM</b>)的純因果<b class='flag-5'>推理</b><b class='flag-5'>能力</b>

    什么是樣本學(xué)習(xí)?為什么要搞樣本學(xué)習(xí)?

    樣本分類的技術(shù)目前正處于高速發(fā)展時期, 所涉及的具體應(yīng)用已經(jīng)從最初的圖像分類任務(wù)擴(kuò)展到了其他計算機(jī)視覺任務(wù)乃至自然語言處理等多個相關(guān)領(lǐng)域。 對此, 本文將其稱為廣義樣本分類。 相應(yīng)
    發(fā)表于 09-22 11:10 ?2928次閱讀
    什么是<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)?為什么要搞<b class='flag-5'>零</b><b class='flag-5'>樣本</b>學(xué)習(xí)?

    跨語言提示:改進(jìn)跨語言樣本思維推理

    進(jìn)一步地,提出了Cross-Lingual Self-consistent Prompting (CLSP),利用不同語言專家的知識和不同語言間更加多樣的思考方式,集成了多個推理路徑,顯著地提高了self-consistency
    的頭像 發(fā)表于 11-08 16:59 ?1095次閱讀
    跨語言提示:改進(jìn)跨語言<b class='flag-5'>零</b><b class='flag-5'>樣本</b>思維<b class='flag-5'>推理</b>

    什么是LLM?LLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領(lǐng)域的研究熱點(diǎn)。LLM以其強(qiáng)大的文本生成、理解和推理
    的頭像 發(fā)表于 07-02 11:45 ?1.4w次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型
    的頭像 發(fā)表于 07-24 11:38 ?1790次閱讀

    使用ReMEmbR實現(xiàn)機(jī)器人推理與行動能力

    視覺語言模型(VLM)通過將文本和圖像投射到同一個嵌入空間,將基礎(chǔ)大語言模型(LLM)強(qiáng)大的語言理解能力與視覺 transformer(ViT)的視覺能力相結(jié)合。VLM 可以處理非結(jié)構(gòu)化
    的頭像 發(fā)表于 11-19 15:37 ?884次閱讀
    使用ReMEmbR實現(xiàn)機(jī)器人<b class='flag-5'>推理</b>與行動<b class='flag-5'>能力</b>

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展
    的頭像 發(fā)表于 04-03 12:09 ?465次閱讀
    詳解 <b class='flag-5'>LLM</b> <b class='flag-5'>推理</b>模型的現(xiàn)狀