一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

清華等開源「工具學(xué)習(xí)基準(zhǔn)」ToolBench,微調(diào)模型ToolLLaMA性能超越ChatGPT

AI智勝未來 ? 來源:新智元 ? 2023-06-08 11:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】工具學(xué)習(xí)的開源時代來了!

人類具有創(chuàng)造和利用工具的能力,使得我們可以突破身體的限制,探索更廣闊的世界。

人工智能基礎(chǔ)模型也類似,如果僅靠訓(xùn)練階段得到的權(quán)重,使用場景就會非常受限,而最近提出的工具學(xué)習(xí)(tool learning),將特定領(lǐng)域的專用工具與大規(guī)模基礎(chǔ)模型相結(jié)合,可以實現(xiàn)更高的效率、性能。

不過目前工具學(xué)習(xí)的相關(guān)研究還不夠深入,也缺乏相關(guān)的開源數(shù)據(jù)和代碼。

最近,清華大學(xué)自然語言處理實驗室等支持的開源社區(qū)OpenBMB (Open Lab for Big Model Base)發(fā)布了ToolBench項目,可以幫助開發(fā)者構(gòu)建開源、大規(guī)模、高質(zhì)量的指令調(diào)優(yōu)數(shù)據(jù),促進構(gòu)建具有通用工具使用能力的大型語言模型。

d1432186-0580-11ee-8a94-dac502259ad0.png

倉庫鏈接:https://github.com/OpenBMB/ToolBench

ToolBench倉庫中提供了相關(guān)數(shù)據(jù)集、訓(xùn)練和評估腳本,以及在ToolBench上微調(diào)的功能模型ToolLLaMA,具體特點為:

1. 支持單工具和多工具方案

其中單工具設(shè)置遵循LangChain提示風(fēng)格,多工具設(shè)置遵循AutoGPT的提示風(fēng)格。

2. 模型回復(fù)不僅包括最終答案,還包含模型的思維鏈過程、工具執(zhí)行和工具執(zhí)行結(jié)果

3. 支持真實世界級別的復(fù)雜性,支持多步工具調(diào)用

4. 豐富的API,可用于現(xiàn)實世界中的場景,如天氣信息、搜索、股票更新和PowerPoint自動化

5. 所有的數(shù)據(jù)都是由OpenAI API自動生成并由開發(fā)團隊進行過濾,數(shù)據(jù)的創(chuàng)建過程很容易擴展

不過需要注意的是,目前發(fā)布的數(shù)據(jù)還不是最終版本,研究人員仍然在對數(shù)據(jù)進行后處理來提高數(shù)據(jù)質(zhì)量,并增加真實世界工具的覆蓋范圍。

ToolBench

ToolBench的總體思路是基于BMTools,在有監(jiān)督數(shù)據(jù)中訓(xùn)練大型語言模型。

d168661c-0580-11ee-8a94-dac502259ad0.png

倉庫中包含31.2萬次真實API調(diào)用得到的9800條數(shù)據(jù),涵蓋單工具場景和多工具場景,下面是單工具的統(tǒng)計信息。

d1731882-0580-11ee-8a94-dac502259ad0.png

其中每行數(shù)據(jù)都是一個json dict,包含數(shù)據(jù)創(chuàng)建的提示模板、工具使用的人工指令(查詢)、中間思維/工具執(zhí)行循環(huán)和最終答案。

模型實驗

機器評估:研究人員對每個工具隨機抽取100個鏈步(chain steps)來構(gòu)建機器評估測試平臺,平均27個最終步驟和73個中間工具調(diào)用步驟,其中最終步驟的評估使用Rouge-L指標(biāo),中間步驟的評估使用ExactMatch指標(biāo)進行評估。

d17da022-0580-11ee-8a94-dac502259ad0.png

人工評估:在天氣、地圖、股票、翻譯、化學(xué)和WolframAlpha工具中隨機抽取10個query,然后評估工具調(diào)用過程的通過率、最終答案以及和ChatGPT最終答案的比較。

ChatGPT評估:通過ChatGPT對LLaMA和ChatGPT的答案和工具使用鏈進行自動評估。

評估結(jié)果如下(分數(shù)越高越好),可以看到ToolLLaMA在不同場景下與ChatGPT的性能相同或更好。

d186b716-0580-11ee-8a94-dac502259ad0.png

工具學(xué)習(xí)

在清華大學(xué)、人民大學(xué)、北京郵電大學(xué)等個國內(nèi)外知名高校和大學(xué)聯(lián)合發(fā)布的一篇論文中,對工具學(xué)習(xí)進行了系統(tǒng)的研究,介紹了工具學(xué)習(xí)的背景,包括認知起源、基礎(chǔ)模型的范式轉(zhuǎn)變,以及工具和模型的互補作用。

d1a93c64-0580-11ee-8a94-dac502259ad0.png

論文鏈接:https://arxiv.org/pdf/2304.08354.pdf

文中還回顧了現(xiàn)有的工具學(xué)習(xí)研究,包括工具增強型和工具導(dǎo)向型學(xué)習(xí),并制定了一個通用的工具學(xué)習(xí)框架:從理解用戶指令開始,模型應(yīng)該學(xué)會把一個復(fù)雜的任務(wù)分解成幾個子任務(wù),通過推理動態(tài)地調(diào)整計劃,并通過選擇合適的工具有效地征服每個子任務(wù)。

文中還討論了如何訓(xùn)練模型以提高工具使用能力并促進工具學(xué)習(xí)的普及。

考慮到之前的工作中缺乏系統(tǒng)的工具學(xué)習(xí)評估,研究人員用17種有代表性的工具進行了實驗,并展示了當(dāng)前基礎(chǔ)模型在熟練利用工具方面的潛力。

論文最后討論了幾個需要進一步研究的工具學(xué)習(xí)的開放性問題,例如確保安全和可信賴的工具使用、用基礎(chǔ)模型實現(xiàn)工具創(chuàng)建,以及解決個性化的難題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249581
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50432
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14164

原文標(biāo)題:清華等開源「工具學(xué)習(xí)基準(zhǔn)」ToolBench,微調(diào)模型ToolLLaMA性能超越ChatGPT

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    ChatGPT模型的發(fā)展,對GPGPU有怎樣的性能要求?

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)最近,在ChatGPT火了之后,國內(nèi)互聯(lián)網(wǎng)科技圈不時傳出計劃或者正在研究類ChatGPT模型的消息。 ? 然而在相關(guān)技術(shù)真正面世之前,近日,OpenAI又放
    的頭像 發(fā)表于 03-07 09:15 ?2438次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    重復(fù)項或使用編輯距離算法比較文本相似度。數(shù)據(jù)標(biāo)注:高質(zhì)量的數(shù)據(jù)標(biāo)注直接影響模型性能。標(biāo)注過程應(yīng)遵循明確標(biāo)注規(guī)則、選擇合適的標(biāo)注工具、進行多輪審核和質(zhì)量控制原則。數(shù)據(jù)增強:提高
    發(fā)表于 01-14 16:51

    科技大廠競逐AIGC,中國的ChatGPT在哪?

    。亞馬遜成立了一個小型工作組,拓展ChatGPTAI工具對企業(yè)的工作職能…… ChatGPT火爆,搜索引擎巨頭百度率先坐不住了。 就在谷歌官宣Bard內(nèi)測的當(dāng)天下午,百度官宣了大
    發(fā)表于 03-03 14:28

    清華大學(xué)發(fā)布首個開源自動圖學(xué)工具

    如何應(yīng)用自動機器學(xué)習(xí) (AutoML) 加速圖機器學(xué)習(xí)任務(wù)的處理?清華大學(xué)發(fā)布全球首個開源自動圖學(xué)習(xí)工具
    的頭像 發(fā)表于 12-22 16:32 ?1885次閱讀

    ChatGPT開源項目匯總表格

    CarperAI 是EleutherAI研究小組的一個新實驗室,其任務(wù)是“通過強化學(xué)習(xí)提高大型語言模型 (LLM) 的性能和安全性?!?CarperAI 開源了 Transformer
    的頭像 發(fā)表于 03-22 14:11 ?2012次閱讀

    低成本開源聊天機器人Vicuna:可達到ChatGPT/Bard 90%以上水平

    根據(jù)介紹,通過根據(jù)從 ShareGPT.com (一個用戶可以分享他們的 ChatGPT 對話的網(wǎng)站) 收集的用戶共享對話微調(diào) LLaMA 基礎(chǔ)模型,Vicuna-13B 與 Stanford Alpaca
    的頭像 發(fā)表于 04-06 11:09 ?2806次閱讀

    微軟開源“傻瓜式”類ChatGPT模型訓(xùn)練工具

    DeepSpeed-RLHF 模塊:DeepSpeed-RLHF 復(fù)刻了 InstructGPT 論文中的訓(xùn)練模式,并確保包括 a) 監(jiān)督微調(diào)(SFT),b) 獎勵模型微調(diào)和 c) 基于人類反饋
    的頭像 發(fā)表于 04-14 09:36 ?1351次閱讀

    支持 ChatGPT 的機器學(xué)習(xí)模型的概況

    本文介紹了支持 ChatGPT 的機器學(xué)習(xí)模型的概況,文章將從大型語言模型的介紹開始,深入探討用來訓(xùn)練 GPT-3 的革命性自我注意機制,然后深入研究由人類反饋的強化
    的頭像 發(fā)表于 05-26 11:44 ?1190次閱讀
    支持 <b class='flag-5'>ChatGPT</b> 的機器<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>的概況

    iPhone都能微調(diào)模型了嘛

    自動測試分數(shù)達到 ChatGPT的99.3%,人類難以分辨 兩者的回答…… 這是開源模型最新成果,來自羊駝家族的又一重磅成員——華盛頓大學(xué) 原駝 ( Guanaco )。 ? 更關(guān)鍵的是,與原駝
    的頭像 發(fā)表于 06-02 15:26 ?1028次閱讀
    iPhone都能<b class='flag-5'>微調(diào)</b>大<b class='flag-5'>模型</b>了嘛

    ChatGPT:怎樣打造智能客服體驗的重要工具

    ChatGPT作為智能對話生成模型,可以幫助打造智能客服體驗的重要工具。以下是一些方法和步驟:1.數(shù)據(jù)收集和準(zhǔn)備:收集和整理與客服相關(guān)的數(shù)據(jù),包括常見問題、回答示例、客戶對話記錄。這
    的頭像 發(fā)表于 11-01 11:12 ?443次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗的重要<b class='flag-5'>工具</b>?

    OpenAI開放大模型微調(diào)功能 GPT-3.5可以打造專屬ChatGPT

    OpenAI開放大模型微調(diào)功能 GPT-3.5可以打造專屬ChatGPT OpenAI開放大模型微調(diào)功能,這意味著GPT-3.5 Turbo
    的頭像 發(fā)表于 08-23 19:34 ?1848次閱讀

    開源LLEMMA發(fā)布:超越未公開的頂尖模型,可直接應(yīng)用于工具和定理證明

    但LLEMMA的出現(xiàn)改變了這一局面。它不僅在MATH基準(zhǔn)測試上創(chuàng)下了新高,甚至超越了某些還未對外公開的頂尖模型,如Minerva。更讓人欣喜的是,LLEMMA無需額外的調(diào)整,即可直接應(yīng)用于工具
    的頭像 發(fā)表于 10-22 10:24 ?1111次閱讀
    <b class='flag-5'>開源</b>LLEMMA發(fā)布:<b class='flag-5'>超越</b>未公開的頂尖<b class='flag-5'>模型</b>,可直接應(yīng)用于<b class='flag-5'>工具</b>和定理證明

    最佳開源模型刷新多項SOTA,首次超越Mixtral Instruct!「開源版GPT-4」家族迎來大爆發(fā)

    Mixtral 8x7B模型開源后,AI社區(qū)再次迎來一大波微調(diào)實踐。來自Nous Research應(yīng)用研究小組團隊微調(diào)出新一代大模型Nous
    的頭像 發(fā)表于 01-30 15:29 ?1306次閱讀
    最佳<b class='flag-5'>開源</b><b class='flag-5'>模型</b>刷新多項SOTA,首次<b class='flag-5'>超越</b>Mixtral Instruct!「<b class='flag-5'>開源</b>版GPT-4」家族迎來大爆發(fā)

    llm模型chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語言模型,它們是一類使用深度學(xué)習(xí)技術(shù)構(gòu)建的自然語言處理(NLP)模型。LLM模型可以處理各種語言任務(wù),如文本生成、文本分類、機
    的頭像 發(fā)表于 07-09 09:55 ?2004次閱讀

    模型為什么要微調(diào)?大模型微調(diào)的原理

    難以達到最佳性能。為了提升模型在特定任務(wù)上的表現(xiàn),微調(diào)(Fine-tuning)成為了一個關(guān)鍵步驟。本文將詳細探討大模型為什么要進行微調(diào)以及
    的頭像 發(fā)表于 07-10 10:43 ?7378次閱讀