一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌開發(fā)出一個(gè)新的語言模型,包含了超過1.6萬億個(gè)參數(shù)

ss ? 來源:陳述根本 ? 作者:陳根 ? 2021-01-19 15:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

開發(fā)人工智能的語言模型,一直是人工智能的重要細(xì)分領(lǐng)域。人工智能語言模型應(yīng)用包括搜索引擎、文字生成、個(gè)性化的對(duì)話工具以及軟件生成等。

2020年5月,OpenAI的一組研究人員發(fā)布了具有里程碑意義的AI模型GPT-3。GPT-3就是在570 GB的文本數(shù)據(jù)上訓(xùn)練的語言模型,因此,就訓(xùn)練數(shù)據(jù)和生成能力而言,GPT-3截至2020年都是最龐大的公開發(fā)布的語言模型。

此外,OpenAI的GPT-3一反之前死守基礎(chǔ)研究的思路,將 GPT-3 做成了一個(gè)服務(wù),提供可以調(diào)用的 OpenAI API,并且向開放了少量體驗(yàn)資格,使得拿到體驗(yàn)資格的業(yè)界人士或?qū)W者等,開發(fā)出了一眾驚人的演示。

包括答題、翻譯、寫文章,甚至是數(shù)學(xué)計(jì)算和編寫代碼。而由GPT-3所寫的文章幾乎達(dá)到了以假亂真的地步,在 OpenAI 的測試中,人類評(píng)估人員也很難判斷出這篇新聞的真假,檢測準(zhǔn)確率僅為 12%。

但現(xiàn)在,谷歌研究人員開發(fā)出一個(gè)新的語言模型,它包含了超過 1.6 萬億個(gè)參數(shù),遠(yuǎn)超 Open AI 開發(fā)的 GTP-3 的規(guī)模(1750 億個(gè)參數(shù)),成為迄今為止最大規(guī)模的人工智能語言模型,比之前谷歌開發(fā)過最大的語言模型 T5-XXL 的效率提高了 4 倍。

該語言模型使用 Switch Transformer 方法進(jìn)行大規(guī)模訓(xùn)練,這是一種“稀疏激活”技術(shù),它只使用模型權(quán)重的子集或在模型中轉(zhuǎn)換輸入數(shù)據(jù)的參數(shù),以有效降低計(jì)算密集度。

盡管在部分實(shí)驗(yàn)中,該模型相比規(guī)模更小的模型得到了較低分?jǐn)?shù)。但在相同的計(jì)算資源下,預(yù)訓(xùn)練速度提高了7倍。這些改進(jìn)擴(kuò)展到多語言設(shè)置中,我們?cè)谒?01種語言中測量mT5基本版本的增益。最后,我們通過在“巨大的干凈的爬蟲語料庫”上預(yù)先訓(xùn)練多達(dá)萬億個(gè)參數(shù)的模型,提高了語言模型的當(dāng)前規(guī)模,并實(shí)現(xiàn)了比T5-XXL模型4倍的加速。

研究人員認(rèn)為,稀疏性可以在未來賦予該模型在一系列不同媒體下多模態(tài)的優(yōu)勢。這也為人工智能語言模型的深入研究提供了更多方向的參考。

責(zé)任編輯:xj

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    280040
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249598
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10796
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何將個(gè)FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型

    模型切換概述 本文介紹如何將個(gè)FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型,您需要完成如
    發(fā)表于 06-04 06:22

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本
    的頭像 發(fā)表于 04-30 18:34 ?515次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    小白學(xué)大模型:訓(xùn)練大語言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時(shí)代,大型語言模型(LLMs)正以其強(qiáng)大的語言理解和生成能力,改變著我們的生活和工作方式。在最近的項(xiàng)研究中,科學(xué)家們?yōu)榱松钊肓私馊绾胃咝У赜?xùn)練大型
    的頭像 發(fā)表于 03-03 11:51 ?737次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:訓(xùn)練大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的深度指南

    AI大語言模型開發(fā)步驟

    開發(fā)個(gè)高效、準(zhǔn)確的大語言模型個(gè)復(fù)雜且多階段的過
    的頭像 發(fā)表于 12-19 11:29 ?901次閱讀

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?528次閱讀

    語言模型開發(fā)語言是什么

    在人工智能領(lǐng)域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大
    的頭像 發(fā)表于 12-04 11:44 ?702次閱讀

    云端語言模型開發(fā)方法

    云端語言模型開發(fā)個(gè)復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)準(zhǔn)備、模型選擇、訓(xùn)練優(yōu)化、部署應(yīng)用等多個(gè)環(huán)節(jié)。
    的頭像 發(fā)表于 12-02 10:48 ?692次閱讀

    從零開始訓(xùn)練個(gè)語言模型需要投資多少錢?

    ,前言 ? 在AI領(lǐng)域,訓(xùn)練個(gè)大型語言模型(LLM)是
    的頭像 發(fā)表于 11-08 14:15 ?792次閱讀
    從零開始訓(xùn)練<b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>需要投資多少錢?

    語言模型如何開發(fā)

    語言模型開發(fā)個(gè)復(fù)雜且細(xì)致的過程,涵蓋了數(shù)據(jù)準(zhǔn)備、模型架構(gòu)設(shè)計(jì)、訓(xùn)練、微調(diào)和部署等多個(gè)階段
    的頭像 發(fā)表于 11-04 10:14 ?605次閱讀

    谷歌全新推出開放式視覺語言模型PaliGemma

    這種熱烈的反響非常鼓舞人心,開發(fā)者們打造了系列多樣的項(xiàng)目,例如用于印度語言的多語言變體 Navarasa,以及設(shè)備端側(cè)動(dòng)作模型 Octop
    的頭像 發(fā)表于 10-15 17:37 ?744次閱讀

    聯(lián)發(fā)科新代天璣旗艦芯片針對(duì)谷歌語言模型Gemini Nano優(yōu)化

    近日,聯(lián)發(fā)科宣布了個(gè)重要的技術(shù)進(jìn)展——新代天璣旗艦芯片已經(jīng)針對(duì)谷歌的大語言模型Gemini
    的頭像 發(fā)表于 10-09 16:44 ?832次閱讀

    TINA-TI里的運(yùn)放SPICE模型包含有運(yùn)放的差分、共模輸入電容參數(shù)嗎?

    (2.2pF+6.5pF+13pF)?我不知道這個(gè)內(nèi)置的SPICE模型是否包含了差分輸入電容6.5pF和共模輸入電容13pF這兩個(gè)參數(shù)?
    發(fā)表于 08-12 08:13

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    今天開始學(xué)習(xí)《大語言模型應(yīng)用指南》第篇——基礎(chǔ)篇,對(duì)于人工智能相關(guān)專業(yè)技術(shù)人員應(yīng)該可以輕松加愉快的完成此篇閱讀,但對(duì)于我還是有許多的知識(shí)點(diǎn)、專業(yè)術(shù)語比較陌生,需要網(wǎng)上搜索學(xué)習(xí)更多的資料才能理解書中
    發(fā)表于 07-25 14:33

    Hugging Face科技公司推出SmolLM系列語言模型

    7月22日最新資訊,Hugging Face科技公司在語言模型領(lǐng)域再創(chuàng)新高,正式推出了SmolLM系列——款專為適應(yīng)多樣計(jì)算資源而設(shè)計(jì)的緊湊型語言
    的頭像 發(fā)表于 07-23 16:35 ?740次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書

    上周收到《大語言模型應(yīng)用指南》書,非常高興,但工作項(xiàng)目繁忙,今天才品鑒體驗(yàn),感謝作者編寫了部內(nèi)容豐富、理論應(yīng)用相結(jié)合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了
    發(fā)表于 07-21 13:35