一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出1.6萬(wàn)億參數(shù)的人工智能語(yǔ)言模型,打破GPT-3記錄

hl5C_deeptechch ? 來(lái)源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-01-18 17:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

古諺道:“熟讀唐詩(shī)三百首,不會(huì)作詩(shī)也會(huì)吟?!?這句話放在目前的人工智能語(yǔ)言模型中也非常適用。

此前,OpenAI 的研究人員開(kāi)發(fā)出 “GPT-3”,這是一個(gè)由 1750 億個(gè)參數(shù)組成的 AI 語(yǔ)言模型,堪稱有史以來(lái)訓(xùn)練過(guò)的最大的語(yǔ)言模型,可以進(jìn)行原始類比、生成配方、甚至完成基本代碼編寫(xiě)。

如今,這一記錄被打破了。近日,谷歌研究人員開(kāi)發(fā)出一個(gè)新的語(yǔ)言模型,它包含了超過(guò) 1.6 萬(wàn)億個(gè)參數(shù),這是迄今為止最大規(guī)模的人工智能語(yǔ)言模型,比之前谷歌開(kāi)發(fā)的語(yǔ)言模型 T5-XXL 的規(guī)模大了 4 倍。

6735ad0e-584e-11eb-8b86-12bb97331649.png

參數(shù)是機(jī)器學(xué)習(xí)算法的關(guān)鍵所在,它們是從歷史訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到的模型的一部分。一般而言,在語(yǔ)言領(lǐng)域中參數(shù)的數(shù)量和復(fù)雜度之間的相關(guān)性非常好。這一點(diǎn)類似于 GPU晶體管的數(shù)量,在同樣的制程工藝下,晶體管越多其算力便越強(qiáng),而語(yǔ)言模型包含的參數(shù)愈多就愈接近人類自然語(yǔ)言。

正如研究人員在一篇論文中指出的那樣,大規(guī)模的訓(xùn)練是通向強(qiáng)大模型的有效途徑,在大數(shù)據(jù)集和參數(shù)計(jì)數(shù)的支持下,簡(jiǎn)單的體系結(jié)構(gòu)遠(yuǎn)遠(yuǎn)超過(guò)了更復(fù)雜的算法。但是,有效的大規(guī)模培訓(xùn)在計(jì)算上非常密集。這就是為什么研究人員熱衷于他們所說(shuō)的 “開(kāi)關(guān)變壓器”,這是一種 “稀疏激活” 技術(shù),它只使用模型權(quán)重的一個(gè)子集或者在模型中轉(zhuǎn)換輸入數(shù)據(jù)的參數(shù)。

“開(kāi)關(guān)變壓器” 是早在 90 年代初首次提出的一種人工智能模型范例,大體意思是將多個(gè)專家或?qū)iT(mén)處理不同任務(wù)的模型放在一個(gè)更大的模型中,并有一個(gè) “門(mén)控網(wǎng)絡(luò)” 來(lái)選擇為任何給定數(shù)據(jù)咨詢哪些專家。

在一項(xiàng)實(shí)驗(yàn)中,研究人員使用 32 個(gè) TPU 內(nèi)核對(duì)幾個(gè)不同的 “開(kāi)關(guān)變壓器” 模型進(jìn)行了預(yù)訓(xùn)練,這些 TPU 內(nèi)核位于一個(gè)從 Reddit、Wikipedia 和其他網(wǎng)絡(luò)資源中搜集的 750GB 大小的文本數(shù)據(jù)語(yǔ)料庫(kù)中,任務(wù)則是讓這些模型預(yù)測(cè)段落中 15% 的單詞被遮住的缺失單詞,以及其他挑戰(zhàn),比如檢索文本來(lái)回答一系列越來(lái)越難的問(wèn)題。

研究人員稱,包含了 1.6 萬(wàn)億參數(shù)和 2048 名專家的模型 Switch-C 顯示 “完全沒(méi)有訓(xùn)練不穩(wěn)定性”。然而,在桑福德問(wèn)答數(shù)據(jù)集的基準(zhǔn)測(cè)試中,Switch-C 的得分居然比僅包含 3950 億個(gè)參數(shù)和 64 名專家的模型 Switch-XXL 還要低一點(diǎn),對(duì)此,研究人員認(rèn)為是因?yàn)槲⒄{(diào)質(zhì)量、計(jì)算要求和參數(shù)數(shù)量之間的不透明關(guān)系所致。

在這種情況下,“開(kāi)關(guān)變壓器” 導(dǎo)致了一些下游任務(wù)的收益。例如,研究人員稱在使用相同數(shù)量的計(jì)算資源的情況下,它可以使訓(xùn)練前的加速速度提高 7 倍以上。他們還證明 “稀疏激活” 技術(shù)可以用來(lái)創(chuàng)建更小、更密集的模型,這些模型可以對(duì)任務(wù)進(jìn)行微調(diào),其質(zhì)量增益為大型模型的 30%。

對(duì)此他們表示:雖然這項(xiàng)工作主要集中在超大模型上,但我們也發(fā)現(xiàn)只有兩名專家的模型可以提高性能,同時(shí)很容易適應(yīng)通用 GPU 或 TPU 的內(nèi)存限制。另外,通過(guò)將稀疏模型提取為稠密模型,可以實(shí)現(xiàn) 10 到 100 倍的壓縮率,同時(shí)獲得專家模型約 30% 的質(zhì)量增益。

在另一個(gè)測(cè)試中,“開(kāi)關(guān)變壓器” 模型被訓(xùn)練在 100 多種不同語(yǔ)言之間進(jìn)行翻譯,研究人員觀察到 101 種語(yǔ)言的 “普遍改善”,91% 的語(yǔ)言受益于比基線模型快 4 倍以上的速度。未來(lái),研究人員還計(jì)劃將 “開(kāi)關(guān)變壓器” 應(yīng)用于新的領(lǐng)域,比如圖像和文本。他們認(rèn)為,模型稀疏性可以賦予優(yōu)勢(shì),在一系列不同的媒體以及多模態(tài)模型。

美中不足的是,研究人員的工作沒(méi)有考慮到這些語(yǔ)言模型在現(xiàn)實(shí)世界中的影響,比如模型通常會(huì)放大一些公開(kāi)數(shù)據(jù)中的偏見(jiàn)。對(duì)此,OpenAI 公司指出,這可能導(dǎo)致在女性代詞附近放置 “淘氣”;而在 “恐怖主義” 等詞附近放置 “伊斯蘭” 等。根據(jù)米德?tīng)柌飮?guó)際研究所的說(shuō)法,這種偏見(jiàn)可能被惡意行為者利用,通過(guò)散布錯(cuò)誤信息、造謠和謊言來(lái)煽動(dòng)不和。

而路透社也曾報(bào)道稱,谷歌的研究人員現(xiàn)在被要求在研究人臉和情緒分析以及種族分類等話題之前,先咨詢法律、政策和公關(guān)團(tuán)隊(duì),性別或政治派別。

綜上所述,盡管谷歌訓(xùn)練的 1.6 萬(wàn)億參數(shù)的人工智能語(yǔ)言模型還沒(méi)辦法做到真正意義上的人工智能,存在一些不足之處需要完善和優(yōu)化,但隨著在摩爾定律下電子設(shè)備算力的不斷提升,近些年 AI 語(yǔ)言模型參數(shù)量級(jí)呈指數(shù)倍發(fā)展,相信在不久的將來(lái),或許真的會(huì)出現(xiàn)一個(gè)無(wú)限接近熟讀人類歷史所有文明記錄的超級(jí)模型,能夠和人類完全實(shí)現(xiàn)自然語(yǔ)言交流,不妨讓我們好好期待一下吧!

原文標(biāo)題:GPT-3記錄被打破!谷歌推出1.6萬(wàn)億參數(shù)的人工智能語(yǔ)言模型

文章出處:【微信公眾號(hào):DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108115
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49011

    瀏覽量

    249356

原文標(biāo)題:GPT-3記錄被打破!谷歌推出1.6萬(wàn)億參數(shù)的人工智能語(yǔ)言模型

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門(mén)學(xué)習(xí)課程參考2025版(大模型篇)

    人工智能模型重塑教育與社會(huì)發(fā)展的當(dāng)下,無(wú)論是探索未來(lái)職業(yè)方向,還是更新技術(shù)儲(chǔ)備,掌握大模型知識(shí)都已成為新時(shí)代的必修課。從職場(chǎng)上輔助工作的智能助手,到課堂用于學(xué)術(shù)研究的
    發(fā)表于 07-04 11:10

    如何借助大語(yǔ)言模型打造人工智能生態(tài)系統(tǒng)

    、硬件需求以及所涉及的財(cái)務(wù)影響這三者之間的內(nèi)在聯(lián)系。我們將深入探究現(xiàn)實(shí)中大語(yǔ)言模型的發(fā)展趨勢(shì),并共同探討如何借助規(guī)模更小、效能更高的模型,打造一個(gè)更具可持續(xù)性的人工智能生態(tài)系統(tǒng)。
    的頭像 發(fā)表于 04-27 09:19 ?553次閱讀
    如何借助大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>打造<b class='flag-5'>人工智能</b>生態(tài)系統(tǒng)

    OpenAI即將推出GPT-5模型

    先進(jìn)技術(shù),其中包括備受矚目的o3工具。通過(guò)整合這些技術(shù),GPT-5模型將實(shí)現(xiàn)更加強(qiáng)大的功能和性能。 值得一提的是,GPT-5模型將被廣泛應(yīng)用
    的頭像 發(fā)表于 02-13 11:21 ?584次閱讀

    人工智能模型年度發(fā)展趨勢(shì)報(bào)告

    2024年12月的中央經(jīng)濟(jì)工作會(huì)議明確把開(kāi)展“人工智能+”行動(dòng)作為2025年要抓好的重點(diǎn)任務(wù)。當(dāng)前,以大模型為代表的人工智能正快速演進(jìn),激發(fā)全球科技之變、產(chǎn)業(yè)之變、時(shí)代之變,人工智能發(fā)
    的頭像 發(fā)表于 02-13 10:57 ?785次閱讀
    <b class='flag-5'>人工智能</b>大<b class='flag-5'>模型</b>年度發(fā)展趨勢(shì)報(bào)告

    Banana Pi 攜手 ArmSoM 推出人工智能加速 RK3576 CM5 計(jì)算模塊

    的機(jī)器學(xué)習(xí)和人工智能 (ML 和 AI) 工作負(fù)載,以及 Arm Mali G52-MC3 圖形處理器和支持 H.264/H.265/MJPEG 編碼和 H.265/H.265/VP9/AVI1/AVS2
    發(fā)表于 12-11 18:38

    嵌入式和人工智能究竟是什么關(guān)系?

    、連接主義和深度學(xué)習(xí)等不同的階段。目前,人工智能已經(jīng)廣泛應(yīng)用于各種領(lǐng)域,如自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、智能推薦等。 嵌入式系統(tǒng)和人工智能在許多方面都存在密切的關(guān)聯(lián)性。首先,嵌入式系統(tǒng)可
    發(fā)表于 11-14 16:39

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第一章人工智能驅(qū)動(dòng)的科學(xué)創(chuàng)新學(xué)習(xí)心得

    ,還促進(jìn)了新理論、新技術(shù)的誕生。 3. 挑戰(zhàn)與機(jī)遇并存 盡管人工智能為科學(xué)創(chuàng)新帶來(lái)了巨大潛力,但第一章也誠(chéng)實(shí)地討論了伴隨而來(lái)的挑戰(zhàn)。數(shù)據(jù)隱私、算法偏見(jiàn)、倫理道德等問(wèn)題不容忽視。如何在利用AI提升科研效率
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    長(zhǎng)時(shí)間運(yùn)行或電池供電的設(shè)備尤為重要。 高性能 : 盡管RISC-V架構(gòu)以低功耗著稱,但其高性能也不容忽視。通過(guò)優(yōu)化指令集和處理器設(shè)計(jì),RISC-V可以在處理復(fù)雜的人工智能圖像處理任務(wù)時(shí)表現(xiàn)出色。 三
    發(fā)表于 09-28 11:00

    英偉達(dá)預(yù)測(cè)機(jī)器人領(lǐng)域或迎“GPT-3時(shí)刻”

    未來(lái)2-3年內(nèi),機(jī)器人基礎(chǔ)模型的研究將迎來(lái)重大突破,這一時(shí)刻被形象地比喻為機(jī)器人領(lǐng)域的“GPT-3時(shí)刻”。
    的頭像 發(fā)表于 09-20 17:05 ?1073次閱讀

    Jim Fan展望:機(jī)器人領(lǐng)域即將迎來(lái)GPT-3式突破

    英偉達(dá)科學(xué)家9月19日,科技媒體The Decoder發(fā)布了一則引人關(guān)注的報(bào)道,英偉達(dá)高級(jí)科學(xué)家Jim Fan在近期預(yù)測(cè),機(jī)器人技術(shù)將在未來(lái)兩到三年內(nèi)迎來(lái)類似GPT-3語(yǔ)言處理領(lǐng)域的革命性突破,他稱之為機(jī)器人領(lǐng)域的“GPT-3
    的頭像 發(fā)表于 09-19 15:13 ?942次閱讀

    人工智能ai4s試讀申請(qǐng)

    目前人工智能在繪畫(huà)對(duì)話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個(gè)需要研究的課題,本書(shū)對(duì)ai4s基本原理和原則,方法進(jìn)行描訴,有利于總結(jié)經(jīng)驗(yàn),擬按照要求準(zhǔn)備相關(guān)體會(huì)材料??茨芊裼兄谌腴T(mén)和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.44】AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新

    活的世界? 編輯推薦 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》聚焦于人工智能與材料科學(xué)、生命科學(xué)、電子科學(xué)、能源科學(xué)、環(huán)境科學(xué)五大領(lǐng)域的交叉融合,通過(guò)深入淺出的語(yǔ)言和諸多實(shí)際應(yīng)用案例,介紹了
    發(fā)表于 09-09 13:54

    Kiwi Talks | 傳統(tǒng)以太網(wǎng)、UEC超以太網(wǎng)、超節(jié)點(diǎn)-Ethernet RDMA 打響進(jìn)階賽

    推進(jìn)下一代低延遲以太網(wǎng) 今天的人工智能應(yīng)用是由大型語(yǔ)言模型(llm)驅(qū)動(dòng)的,這些模型是在大量非結(jié)構(gòu)化數(shù)據(jù)上訓(xùn)練的。llm的有效性與訓(xùn)練中使用的參數(shù)
    發(fā)表于 07-30 09:16 ?2952次閱讀
    Kiwi Talks | 傳統(tǒng)以太網(wǎng)、UEC超以太網(wǎng)、超節(jié)點(diǎn)-Ethernet RDMA 打響進(jìn)階賽

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    今天開(kāi)始學(xué)習(xí)《大語(yǔ)言模型應(yīng)用指南》第一篇——基礎(chǔ)篇,對(duì)于人工智能相關(guān)專業(yè)技術(shù)人員應(yīng)該可以輕松加愉快的完成此篇閱讀,但對(duì)于我還是有許多的知識(shí)點(diǎn)、專業(yè)術(shù)語(yǔ)比較陌生,需要網(wǎng)上搜索學(xué)習(xí)更多的資料才能理解書(shū)中
    發(fā)表于 07-25 14:33

    OpenAI發(fā)布最新人工智能模型——GPT-4o mini

    據(jù)國(guó)際媒體報(bào)道,OpenAI 在周四震撼發(fā)布了其最新的人工智能模型——GPT-4o mini,此舉標(biāo)志著這家領(lǐng)先的AI初創(chuàng)公司在拓寬其廣受歡迎的聊天機(jī)器人應(yīng)用領(lǐng)域方面邁出了重要一步。
    的頭像 發(fā)表于 07-19 15:24 ?1545次閱讀