一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

與ChatGPT性能最相匹配的開源模型

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-04-06 10:16 ? 次閱讀

前言

最近由UC Berkeley、CMU、Stanford, 和 UC San Diego的研究人員創(chuàng)建的 Vicuna-13B,通過在 ShareGPT 收集的用戶共享對(duì)話數(shù)據(jù)中微調(diào) LLaMA獲得。其中使用 GPT-4 進(jìn)行評(píng)估,發(fā)現(xiàn)Vicuna-13B 的性能達(dá)到了ChatGPT 和 Bard 的 90% 以上,同時(shí)在 90% 情況下都優(yōu)于 LLaMA 和 Alpaca 等其他模型。訓(xùn)練 Vicuna-13B 的費(fèi)用約為 300 美元。訓(xùn)練和代碼[1]以及在線演示[2]已公開。

Vicuna到底怎么樣?

Vicuna在官網(wǎng)中通過和Alpaca、LLaMA、ChatGPT和Bard對(duì)比,然后通過GPT4當(dāng)裁判來打出分?jǐn)?shù),具體如下。

13c714ec-d401-11ed-bfe3-dac502259ad0.png

問題

13de1fde-d401-11ed-bfe3-dac502259ad0.png

Alpaca-13b vs Vicuna

140b2c9a-d401-11ed-bfe3-dac502259ad0.png

LLaMA-13b vs Vicuna

1430ff2e-d401-11ed-bfe3-dac502259ad0.png

ChatGPT vs Vicuna

1454ff3c-d401-11ed-bfe3-dac502259ad0.png

Bard vs Vicuna

可以看出,Vicuna的回答還是非常棒的,讓GPT4來打分,Vicuna和ChatGPT是十分接近的,遠(yuǎn)遠(yuǎn)高于Alpaca和LLaMA。

如果大家想試試別的問題,可以自己去嘗試[3]哈。

1476f48e-d401-11ed-bfe3-dac502259ad0.png

可換不同類型的不同問題

然而,官方認(rèn)為評(píng)估聊天機(jī)器人絕非易事,聽過GPT4進(jìn)行評(píng)估是一件十分不嚴(yán)格的事情,但是目前還是無法解決評(píng)估的問題,需要后續(xù)學(xué)者進(jìn)行進(jìn)一步探索。

148f1b54-d401-11ed-bfe3-dac502259ad0.png

圖1 GPT-4 評(píng)估

在線demo

14a82ec8-d401-11ed-bfe3-dac502259ad0.png

概述

14cef7ec-d401-11ed-bfe3-dac502259ad0.png

圖2 工作流

圖 2 介紹了整體工作流程。訓(xùn)練是在一天時(shí)間在 8 個(gè) A100 上使用 PyTorch FSDP 完成的。 LLaMA、Alpaca、ChatGPT 和 Vicuna 的詳細(xì)比較如表 1 所示。

14f36212-d401-11ed-bfe3-dac502259ad0.png

表1 一些模型的對(duì)比

訓(xùn)練

Vicuna 是通過使用從 ShareGPT.com 使用公共 API 收集的大約 7萬 用戶共享對(duì)話微調(diào) LLaMA 基礎(chǔ)模型創(chuàng)建的。為了確保數(shù)據(jù)質(zhì)量,將 HTML 轉(zhuǎn)換回 markdown 并過濾掉一些不合適或低質(zhì)量的樣本。此外,將冗長的對(duì)話分成更小的部分,以適應(yīng)模型的最大上下文長度。

訓(xùn)練方法建立在斯坦福alpaca的基礎(chǔ)上,并進(jìn)行了以下改進(jìn)。

內(nèi)存優(yōu)化:為了使 Vicuna 能夠理解長上下文,將最大上下文長度從alpaca 中的 512 擴(kuò)展到 2048。還通過gradient checkpointingflash attentio來解決內(nèi)存壓力。

多輪對(duì)話調(diào)整訓(xùn)練損失考慮多輪對(duì)話,并僅根據(jù)聊天機(jī)器人的輸出進(jìn)行微調(diào)。

通過 Spot 實(shí)例降低成本:使用 SkyPilot 托管點(diǎn)來降低成本。該解決方案將 7B 模型的訓(xùn)練成本從 500 美元削減至 140 美元左右,將 13B 模型的訓(xùn)練成本從 1000 美元左右削減至 300 美元。

150d9588-d401-11ed-bfe3-dac502259ad0.png

圖3 通過GPT4來評(píng)估打分

153299aa-d401-11ed-bfe3-dac502259ad0.png

通過GPT4評(píng)估得出的總分






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    212

    文章

    29297

    瀏覽量

    210976
  • CMU
    CMU
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    15376
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    15874
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1585

    瀏覽量

    8688

原文標(biāo)題:Vicuna:與ChatGPT 性能最相匹配的開源模型

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    開源模型DeepSeek的開放內(nèi)容詳析

    當(dāng)大家討論為什么 DeepSeek 能夠形成全球刷屏之勢(shì),讓所有廠商、平臺(tái)都集成之時(shí),「開源」成為了最大的關(guān)鍵詞之一,圖靈獎(jiǎng)得主 Yann LeCun 稱其是「開源的勝利」。模型開源
    的頭像 發(fā)表于 02-19 09:48 ?1043次閱讀
    <b class='flag-5'>開源</b>大<b class='flag-5'>模型</b>DeepSeek的開放內(nèi)容詳析

    【「大模型啟示錄」閱讀體驗(yàn)】+開啟智能時(shí)代的新鑰匙

    閱讀之旅。在翻開這本書之前,我對(duì)大模型的認(rèn)知僅僅停留在它是一種強(qiáng)大的人工智能技術(shù),可以進(jìn)行自然語言處理、圖像識(shí)別等任務(wù)。我知道像 ChatGPT 這樣的應(yīng)用是基于大模型開發(fā)的,能夠與人類進(jìn)行較為流暢
    發(fā)表于 12-24 13:10

    開源AI模型庫是干嘛的

    開源AI模型庫是指那些公開源代碼、允許自由訪問和使用的AI模型集合。這些模型通常經(jīng)過訓(xùn)練,能夠執(zhí)行特定的任務(wù)。以下,是對(duì)
    的頭像 發(fā)表于 12-14 10:33 ?605次閱讀

    開源與閉源之爭(zhēng):最新的開源模型到底還落后多少?

    一,引言 隨著人工智能(AI)技術(shù)的迅猛發(fā)展,大模型已經(jīng)成為推動(dòng)科技進(jìn)步的重要力量。然而,超大規(guī)模模型在帶來高性能的同時(shí),也面臨著資源消耗大、部署困難等問題。本文將探討AI大模型未來的
    的頭像 發(fā)表于 11-15 11:16 ?674次閱讀
    <b class='flag-5'>開源</b>與閉源之爭(zhēng):最新的<b class='flag-5'>開源</b><b class='flag-5'>模型</b>到底還落后多少?

    ChatGPT:怎樣打造智能客服體驗(yàn)的重要工具?

    用戶反饋和評(píng)估ChatGPT性能。根據(jù)用戶的需求和反饋,不斷優(yōu)化模型和改進(jìn)客服體驗(yàn)。7.人工智能與人工混合:將ChatGPT與人工客服團(tuán)隊(duì)結(jié)合使用,形成人工智能與人工混合的客服模式。
    的頭像 發(fā)表于 11-01 11:12 ?368次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗(yàn)的重要工具?

    如何提升 ChatGPT 的響應(yīng)速度

    同時(shí)進(jìn)行,從而減少總體響應(yīng)時(shí)間。 模型壓縮 :通過模型壓縮技術(shù),如量化、剪枝等,可以減少模型的大小,從而加快模型的加載和推理速度。 知識(shí)蒸餾 :將大型
    的頭像 發(fā)表于 10-25 17:39 ?1344次閱讀

    怎樣搭建基于 ChatGPT 的聊天系統(tǒng)

    搭建一個(gè)基于ChatGPT的聊天系統(tǒng)是一個(gè)涉及多個(gè)步驟的過程,包括理解ChatGPT的API、設(shè)計(jì)用戶界面、處理數(shù)據(jù)和集成ChatGPT模型。以下是一個(gè)簡(jiǎn)化的指南,用于創(chuàng)建一個(gè)基本的聊
    的頭像 發(fā)表于 10-25 16:23 ?874次閱讀

    如何使用 ChatGPT 進(jìn)行內(nèi)容創(chuàng)作

    ChatGPT平臺(tái)。 選擇模型ChatGPT目前支持GPT3.5和GPT4兩個(gè)模型。根據(jù)創(chuàng)作需求,選擇合適的模型。一般來說,GPT4
    的頭像 發(fā)表于 10-25 16:08 ?823次閱讀

    華納云:ChatGPT 登陸 Windows

    ChatGPT 桌面應(yīng)用,您可以聊聊文件和照片。這款應(yīng)用為您帶來了 OpenAI 最新的模型改進(jìn),包括訪問我們最新、最智能的模型OpenAI o1-preview ?!?Windows 版
    的頭像 發(fā)表于 10-18 15:50 ?441次閱讀

    澎峰科技高性能模型推理引擎PerfXLM解析

    ChatGPT問世以來,大模型遍地開花,承載大模型應(yīng)用的高性能推理框架也不斷推出,大有百家爭(zhēng)鳴之勢(shì)。在這種情況下,澎峰科技作為全球領(lǐng)先的智能計(jì)算服務(wù)提供商,在2023年11月25日發(fā)
    的頭像 發(fā)表于 09-29 10:14 ?1057次閱讀
    澎峰科技高<b class='flag-5'>性能</b>大<b class='flag-5'>模型</b>推理引擎PerfXLM解析

    模型LLM與ChatGPT的技術(shù)原理

    在人工智能領(lǐng)域,大模型(Large Language Model, LLM)和ChatGPT等自然語言處理技術(shù)(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發(fā)表于 07-10 10:38 ?1344次閱讀

    llm模型chatGPT的區(qū)別

    ,有許多不同的LLM模型,如BERT、GPT、T5等。 ChatGPT是一種基于GPT(Generative Pre-trained Transformer)模型的聊天機(jī)器人。GPT模型
    的頭像 發(fā)表于 07-09 09:55 ?1739次閱讀

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.34】大語言模型應(yīng)用指南:以ChatGPT為起點(diǎn),從入門到精通的AI實(shí)踐教程

    ,包括開源和閉源兩類。閉源模型的代表有OpenAI 的 GPT 系列和 Anthropic 的 Claude 系列。毫無疑問,目前 OpenAI 的 GPT 系列模型在整個(gè)行業(yè)中處于領(lǐng)先地位,其
    發(fā)表于 06-03 11:39

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r(shí)間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會(huì)的演示中,OpenAI展示該模型的高級(jí)
    發(fā)表于 05-27 15:43

    大語言模型:原理與工程實(shí)踐+初識(shí)2

    前言 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的分支,而大語言模型是深度學(xué)習(xí)的分支。機(jī)器學(xué)習(xí)的核心是讓計(jì)算機(jī)系統(tǒng)通過對(duì)數(shù)據(jù)的學(xué)習(xí)提高性能,深度學(xué)習(xí)則是通過創(chuàng)建人工神經(jīng)網(wǎng)絡(luò)處理數(shù)據(jù)。近年人工神經(jīng)網(wǎng)絡(luò)高速發(fā)展,引發(fā)深度學(xué)習(xí)
    發(fā)表于 05-13 00:09