一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

清華系千億基座對話模型ChatGLM開啟內(nèi)測

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-03-17 13:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

由清華技術(shù)成果轉(zhuǎn)化的公司智譜 AI 宣布開源了 GLM 系列模型的新成員 ——中英雙語對話模型 ChatGLM-6B,支持在單張消費級顯卡上進(jìn)行推理使用。這是繼此前開源 GLM-130B 千億基座模型之后,智譜 AI 再次推出大模型方向的研究成果。

此外,基于千億基座的 ChatGLM 線上模型目前也在 chatglm.cn 進(jìn)行邀請制內(nèi)測,用戶需要使用邀請碼進(jìn)行注冊,也可以填寫基本信息申請內(nèi)測。

根據(jù)介紹,ChatGLM-6B 是一個開源的、支持中英雙語問答的對話語言模型,并針對中文進(jìn)行了優(yōu)化。該模型基于 General Language Model (GLM)架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費級的顯卡上進(jìn)行本地部署(INT4 量化級別下最低只需 6GB 顯存)。

ChatGLM-6B 使用了和 ChatGLM 相同的技術(shù),針對中文問答和對話進(jìn)行了優(yōu)化。經(jīng)過約 1T 標(biāo)識符的中英雙語訓(xùn)練,輔以監(jiān)督微調(diào)、反饋自助、人類反饋強(qiáng)化學(xué)習(xí)等技術(shù)的加持,62 億參數(shù)的 ChatGLM-6B 雖然規(guī)模不及千億模型,但大大降低了推理成本,提升了效率,并且已經(jīng)能生成相當(dāng)符合人類偏好的回答。

ChatGLM-6B 具備以下特點:

充分的中英雙語預(yù)訓(xùn)練:ChatGLM-6B 在 1:1 比例的中英語料上訓(xùn)練了 1T 的 token 量,兼具雙語能力。

優(yōu)化的模型架構(gòu)和大?。何?GLM-130B 訓(xùn)練經(jīng)驗,修正了二維 RoPE 位置編碼實現(xiàn),使用傳統(tǒng) FFN 結(jié)構(gòu)。6B(62 億)的參數(shù)大小,也使得研究者和個人開發(fā)者自己微調(diào)和部署 ChatGLM-6B 成為可能。

較低的部署門檻:FP16 半精度下,ChatGLM-6B 需要至少 13 GB 的顯存進(jìn)行推理,結(jié)合模型量化技術(shù),這一需求可以進(jìn)一步降低到 10GB(INT8) 和 6GB(INT4),使得 ChatGLM-6B 可以部署在消費級顯卡上。

更長的序列長度:相比 GLM-10B(序列長度 1024),ChatGLM-6B 序列長度達(dá) 2048,支持更長對話和應(yīng)用。

人類意圖對齊訓(xùn)練:使用了監(jiān)督微調(diào)(Supervised Fine-Tuning)、反饋自助(Feedback Bootstrap)、人類反饋強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback)等方式,使模型初具理解人類指令意圖的能力。輸出格式為 markdown,方便展示。

基于以上特點,ChatGLM-6B 在一定條件下具備較好的對話與問答能力。ChatGLM-6B 的對話效果展示如下:

ff303b12-c479-11ed-bfe3-dac502259ad0.png

不過由于 ChatGLM-6B 模型的容量較小,不可避免地存在一些局限和不足,包括:

相對較弱的模型記憶和語言能力。在面對許多事實性知識任務(wù)時,ChatGLM-6B 可能會生成不正確的信息,也不太擅長邏輯類問題(如數(shù)學(xué)、編程)的解答。

可能會產(chǎn)生有害說明或有偏見的內(nèi)容:ChatGLM-6B 只是一個初步與人類意圖對齊的語言模型,可能會生成有害、有偏見的內(nèi)容。

較弱的多輪對話能力:ChatGLM-6B 的上下文理解能力還不夠充分,在面對長答案生成和多輪對話的場景時,可能會出現(xiàn)上下文丟失和理解錯誤的情況。

相比起 ChatGLM-6B,ChatGLM 參考了 ChatGPT 的設(shè)計思路,在千億基座模型 GLM-130B 中注入了代碼預(yù)訓(xùn)練,通過有監(jiān)督微調(diào)(Supervised Fine-Tuning)等技術(shù)實現(xiàn)人類意圖對齊。ChatGLM 線上模型的能力提升主要來源于獨特的千億基座模型 GLM-130B。它采用了不同于 BERT、GPT-3 以及 T5 的 GLM 架構(gòu),是一個包含多目標(biāo)函數(shù)的自回歸預(yù)訓(xùn)練模型。

GLM 團(tuán)隊表示,2022 年 11 月,斯坦福大學(xué)大模型中心對全球 30 個主流大模型進(jìn)行了全方位的評測,GLM-130B 是亞洲唯一入選的大模型。在與 OpenAI、Google Brain、微軟、英偉達(dá)、Meta AI 的各大模型對比中,評測報告顯示 GLM-130B 在準(zhǔn)確性和公平性指標(biāo)上與 GPT-3 175B (davinci) 接近或持平,魯棒性、校準(zhǔn)誤差和無偏性則優(yōu)于 GPT-3 175B。

ff656a6c-c479-11ed-bfe3-dac502259ad0.png

由 ChatGLM 生成的對話效果展示:

00b6fc32-c47a-11ed-bfe3-dac502259ad0.png

00d17aee-c47a-11ed-bfe3-dac502259ad0.png

014cb632-c47a-11ed-bfe3-dac502259ad0.png

不過 GLM 團(tuán)隊也坦言,整體來說 ChatGLM 距離國際頂尖大模型研究和產(chǎn)品(比如 OpenAI 的 ChatGPT 及下一代 GPT 模型)還存在一定的差距。該團(tuán)隊表示,將持續(xù)研發(fā)并開源更新版本的 ChatGLM 和相關(guān)模型?!皻g迎大家下載 ChatGLM-6B,基于它進(jìn)行研究和(非商用)應(yīng)用開發(fā)。GLM 團(tuán)隊希望能和開源社區(qū)研究者和開發(fā)者一起,推動大模型研究和應(yīng)用在中國的發(fā)展。”

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    279947
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50425

原文標(biāo)題:清華系千億基座對話模型ChatGLM開啟內(nèi)測,單卡版模型已全面開源

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    2025年開放原子校源行清華大學(xué)站成功舉辦

    近日,由開放原子開源基金會、清華大學(xué)計算機(jī)科學(xué)與技術(shù)、清華大學(xué)軟件學(xué)院主辦的開放原子“校源行”(清華站)在清華大學(xué)成功舉辦。
    的頭像 發(fā)表于 04-22 16:46 ?403次閱讀

    3.5D Chiplet技術(shù)典型案例解讀

    DeepSeek的創(chuàng)新引領(lǐng)大模型基座模型向MoE專家模型進(jìn)一步演進(jìn),未來大模型的參數(shù)將從千億級別
    的頭像 發(fā)表于 03-03 11:15 ?935次閱讀
    3.5D Chiplet技術(shù)典型案例解讀

    RTC實時語音對話開啟人機(jī)交互新生態(tài),AI大模型智能聯(lián)動

    在當(dāng)今科技飛速發(fā)展的時代,AI大模型技術(shù)的爆發(fā)讓語音交互成為了人機(jī)協(xié)同的關(guān)鍵入口。就像Gartner預(yù)測的那樣,到2028年,15%的日常工作決策將由AIAgent自主完成。但傳統(tǒng)基于Http的語音
    的頭像 發(fā)表于 02-26 18:23 ?1587次閱讀
    RTC實時語音<b class='flag-5'>對話</b>:<b class='flag-5'>開啟</b>人機(jī)交互新生態(tài),AI大<b class='flag-5'>模型</b>智能聯(lián)動

    清華大學(xué)自動化學(xué)子走進(jìn)華礪智行研學(xué)交流

    近日,清華大學(xué)自動化的11名學(xué)子走進(jìn)華礪智行研學(xué)交流,開展科技前沿探索的社會實踐活動。
    的頭像 發(fā)表于 02-13 10:03 ?448次閱讀

    RC水泥型防震基座與鋼結(jié)構(gòu)防震基座有哪些區(qū)別?

    C水泥型防震基座與鋼結(jié)構(gòu)防震基座有以下區(qū)別:
    的頭像 發(fā)表于 01-08 15:10 ?368次閱讀
    RC水泥型防震<b class='flag-5'>基座</b>與鋼結(jié)構(gòu)防震<b class='flag-5'>基座</b>有哪些區(qū)別?

    防震基座安裝施工過程中如何保證基座的水平度?

    在防震基座安裝施工過程中,保證基座水平度至關(guān)重要,可從施工前準(zhǔn)備、安裝過程控制到施工后檢查等多方面采取措施,具體如下:
    的頭像 發(fā)表于 01-03 16:32 ?660次閱讀
    防震<b class='flag-5'>基座</b>安裝施工過程中如何保證<b class='flag-5'>基座</b>的水平度?

    【「大模型啟示錄」閱讀體驗】+開啟智能時代的新鑰匙

    對話,提供各種信息和幫助。我也聽聞大模型在智能寫作、智能客服等領(lǐng)域有著出色的表現(xiàn),能夠大大提高工作效率和服務(wù)質(zhì)量。但是,我對于大模型背后的技術(shù)原理、發(fā)展歷程以及它對社會和未來的深遠(yuǎn)影響,卻知之甚少。我
    發(fā)表于 12-24 13:10

    階躍星辰發(fā)布國內(nèi)首個千億參數(shù)端到端語音大模型

    近日,階躍星辰在官方公眾號上宣布了一項重大突破——推出Step-1o千億參數(shù)端到端語音大模型。該模型被譽(yù)為“國內(nèi)首個千億參數(shù)端到端語音大模型
    的頭像 發(fā)表于 12-17 13:43 ?751次閱讀

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?560次閱讀
    如何<b class='flag-5'>開啟</b>Stable Diffusion WebUI<b class='flag-5'>模型</b>推理部署

    比亞迪亮相清華美院工業(yè)設(shè)計60周年慶典

    近日,清華大學(xué)美術(shù)學(xué)院工業(yè)設(shè)計在學(xué)院美術(shù)館隆重舉辦了六十周年慶典暨校友設(shè)計成果展。這不僅是一次對中國工業(yè)設(shè)計教育發(fā)展的莊嚴(yán)回望,更是一場關(guān)于未來設(shè)計創(chuàng)新的熱烈探討。
    的頭像 發(fā)表于 11-28 10:35 ?571次閱讀

    愛芯元智受邀參加2024清華自動化論壇

    近日,“2024清華自動化論壇”在廣州舉行。本次論壇由清華校友總會自動化分會主辦,匯聚了海內(nèi)外約200位清華大學(xué)自動化
    的頭像 發(fā)表于 11-05 14:41 ?719次閱讀

    字節(jié)跳動與清華AIR成立聯(lián)合研究中心

    近日,清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)與字節(jié)跳動共同宣布成立“可擴(kuò)展大模型智能技術(shù)聯(lián)合研究中心”(SIA Lab),并在清華大學(xué)舉行了隆重的成立儀式。
    的頭像 發(fā)表于 10-12 15:24 ?807次閱讀

    商湯日日新·商量-擬人大模型帶你對話未來,感受真實

    對此,專注于“擬人對話”領(lǐng)域的商量-擬人大模型(SenseChat-Character)應(yīng)運而生,通過實現(xiàn)精準(zhǔn)人設(shè)展現(xiàn)以及具有沉浸感的交互,讓智能體更像栩栩如生的人。
    的頭像 發(fā)表于 09-18 15:57 ?1316次閱讀

    chatglm2-6b在P40上做LORA微調(diào)

    2-6B chatglm2-6b相比于chatglm有幾方面的提升: 1. 性能提升: 相比初代模型,升級了 ChatGLM2-6B 的基座
    的頭像 發(fā)表于 08-13 17:12 ?844次閱讀
    <b class='flag-5'>chatglm</b>2-6b在P40上做LORA微調(diào)

    熱烈歡迎清華大學(xué)電子工程學(xué)子來武漢六博光電交流實踐!

    近日,武漢六博光電技術(shù)有限責(zé)任公司接到清華大學(xué)函件,正式成為清華大學(xué)電子工程武漢實踐基地之一。2024年8月1日上午,清華大學(xué)電子工程
    的頭像 發(fā)表于 08-02 08:37 ?814次閱讀
    熱烈歡迎<b class='flag-5'>清華</b>大學(xué)電子工程<b class='flag-5'>系</b>學(xué)子來武漢六博光電交流實踐!