一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

度曉曉1秒1篇高考作文,都是因為預(yù)訓(xùn)練大模型

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2022-06-10 00:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/李彎彎)6月7日,百度推出的數(shù)字人度曉曉作答了全國新高考Ⅰ卷題為《本手、妙手、俗手》議論文,40秒就根據(jù)題目創(chuàng)作了40多篇文章,平均1秒生成1篇,隨機抽取其中一篇,其分?jǐn)?shù)趕超約75%高考考生。


而這得益于文心大模型最新發(fā)布的融合任務(wù)相關(guān)知識的千億大模型ERNIE 3.0 Zeus,該模型在學(xué)習(xí)海量數(shù)據(jù)和知識的基礎(chǔ)上,進一步學(xué)習(xí)百余種不同形式的任務(wù)知識,增強了模型的效果,在各類NLP任務(wù)上表現(xiàn)出了更強的零樣本和小樣本學(xué)習(xí)能力。

基于文心大模型的智能創(chuàng)作

大模型是人工智能大基礎(chǔ)設(shè)施的重要組成,“文心大模型”是百度近幾年在花大力氣投入研發(fā)的技術(shù)基礎(chǔ)設(shè)施。自2019年開始,百度深耕預(yù)訓(xùn)練模型研發(fā),并在該年3月率先發(fā)布中國首個正式開放的預(yù)訓(xùn)練模型ERNIE1.0。

去年12月,百度聯(lián)合鵬城實驗室發(fā)布了鵬城-百度·文心大模型,這是全球首個知識增強千億大模型,也目前全球最大中文單體模型,參數(shù)規(guī)模達到2600億。

在今年5月20日的WAVE SUMMIT 2022深度學(xué)習(xí)開發(fā)者峰會上,文心大模型一次性發(fā)布10個新的大模型,涵蓋基礎(chǔ)大模型、任務(wù)大模型和行業(yè)大模型三級體系,其中就包括融合任務(wù)相關(guān)知識的千億NLP大模型ERNIE 3.0 Zeus。

千億規(guī)模參數(shù)的NLP基礎(chǔ)大模型ERNIE 3.0 Zeus在學(xué)習(xí)海量數(shù)據(jù)和知識的基礎(chǔ)上,進一步學(xué)習(xí)百余種不同形式的任務(wù)知識,增強模型效果;融合層次化提示的預(yù)訓(xùn)練,更好地建模不同任務(wù)的共性與特性;將不同任務(wù)組織成統(tǒng)一的自然語言形式,統(tǒng)一建模增強模型的泛化能力,其相較于其他NLP大模型,在各類NLP任務(wù)上表現(xiàn)出了更強的零樣本和小樣本學(xué)習(xí)能力。

近年來,百度AI技術(shù)加速落地,新興的AIGC更是引人注目。AIGC是繼 UGC、PGC之后新型利用AI技術(shù)自動生成內(nèi)容的生產(chǎn)方式。百度研究院預(yù)測,2022年AIGC技術(shù)將借助大模型的跨模態(tài)綜合技術(shù)能力,可以激發(fā)創(chuàng)意,提升內(nèi)容多樣性,降低制作成本,實現(xiàn)大規(guī)模應(yīng)用。

本次度曉曉寫高考作文,就是基于飛槳文心大模型實現(xiàn)的AIGC創(chuàng)作,文心大模型具備“知識增強”的核心特點,能從大規(guī)模知識和海量數(shù)據(jù)中進行融合學(xué)習(xí),學(xué)習(xí)效率更高、效果更好,具有通用性好、泛化性強的特點。

除了智能寫作,在文心大模型的支持下,AI已經(jīng)具備很強的理解和生成能力,能夠?qū)崿F(xiàn)創(chuàng)意作品的自動生成,包括AI作畫、AI寫歌、AI剪輯等,未來,基于大模型的AIGC將會開放賦能到更多的內(nèi)容生產(chǎn)領(lǐng)域。除了在智能創(chuàng)作上外,文心大模型也已經(jīng)在工業(yè)、能源、教育、金融、通信、媒體等諸多行業(yè)得到應(yīng)用。

預(yù)訓(xùn)練大模型使AI通用性增強

大模型是AI領(lǐng)域最重要的前沿技術(shù)方向,自2018年OpenAI推出1.1億參數(shù)的GPT以后,谷歌、微軟、Facebook等相繼推出自己的預(yù)訓(xùn)練模型,2020年OpenAI再次推出1750億參數(shù)的GPT-3,更是引發(fā)科研機構(gòu)和企業(yè)在大模型研究的競賽,大模型的參數(shù)規(guī)模逐漸增加。

2021年大模型層出不窮,1月,谷歌發(fā)布首個萬億級模型Switch Transformer;3月,北京智源研究院發(fā)布悟道1.0,6月發(fā)布悟道2.0,參數(shù)規(guī)模超過百億;4月,華為云發(fā)布盤古大模型,這是業(yè)界首個千億參數(shù)中文語言預(yù)訓(xùn)練模型;9月,浪潮發(fā)布參數(shù)量達2457億的巨量模型“源1.0”;11月,英偉達與微軟聯(lián)合發(fā)布5300億參數(shù)的“MT-NLG”;同在11月,阿里達摩院宣布其多模態(tài)大模型M6最新參數(shù)從萬億躍遷至10萬億,超過谷歌、微軟此前發(fā)布的萬億級模型,成為全球最大的AI預(yù)訓(xùn)練模型。

預(yù)訓(xùn)練大模型其實是機器學(xué)習(xí)的一種方式,類比人的學(xué)習(xí)來看,人的學(xué)習(xí)可以分成通識教育和專業(yè)教育兩段,預(yù)訓(xùn)練大模型相當(dāng)于解決機器學(xué)習(xí)的通識教育。此前,機器學(xué)習(xí)主要通過標(biāo)注數(shù)據(jù),告訴算法哪個數(shù)據(jù)是正負樣本等進行學(xué)習(xí)。由于人工智能落地場景很多,每個場景都要采數(shù)據(jù)、標(biāo)數(shù)據(jù),因此在標(biāo)注的數(shù)量和質(zhì)量上存在很大的瓶頸。

為解決以上問題,自然語言處理領(lǐng)域迎來了一個新的突破:自監(jiān)督學(xué)習(xí),指的是不用人為標(biāo)注數(shù)據(jù),機器可以用一個方法把知識和規(guī)律學(xué)出來。比如,在模型訓(xùn)練中,如果我們把“中國的首都是北京”這句話中的“北京”蓋住,讓模型去猜中國的首都是哪里,模型可能會猜一個城市,再把蓋的地方翻開,告訴模型是對了還是錯了,模型也就得到了反饋。

通過設(shè)計類似的學(xué)習(xí)方式,讓模型可以在海量的數(shù)據(jù)當(dāng)中進行自監(jiān)督學(xué)習(xí)。這個機制的好處就是,它可以把天然存在的大量數(shù)據(jù)利用起來,打破一定要精標(biāo)數(shù)據(jù)才能學(xué)習(xí)的瓶頸,大模型的出現(xiàn),實際上是為了大幅度降低了行業(yè)應(yīng)用的門檻。

還有一個特別容易理解的解釋,預(yù)訓(xùn)練大模型是在一個原始任務(wù)上預(yù)先訓(xùn)練一個初始模型,然后在目標(biāo)任務(wù)上使用該模型,針對目標(biāo)任務(wù)的特性,對該初始模型進行精調(diào),從而達到提高目標(biāo)任務(wù)的目的。在本質(zhì)上,這是一種遷移學(xué)習(xí)的方法,在自己的目標(biāo)任務(wù)上使用別人訓(xùn)練好的模型。

整體而言,預(yù)訓(xùn)練大模型的興起,使得人工智能的通用性進一步增強,大模型具有效果好、泛化性強、研發(fā)流程標(biāo)準(zhǔn)化程度高等特點,正在成為人工智能技術(shù)及應(yīng)用的新基座。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 智能
    +關(guān)注

    關(guān)注

    8

    文章

    1732

    瀏覽量

    120051
  • 百度
    +關(guān)注

    關(guān)注

    9

    文章

    2334

    瀏覽量

    92186
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    48996

    瀏覽量

    249223
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    用PaddleNLP為GPT-2模型制作FineWeb二進制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進一步講解更多的技術(shù)細節(jié)。本文主要針對大語言模型
    的頭像 發(fā)表于 03-21 18:24 ?1631次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    商湯絕影王剛亮相NVIDIA GTC 2025并發(fā)表主題演講

    商湯科技聯(lián)合創(chuàng)始人、首席科學(xué)家、商湯絕影CEO王剛在NVIDIA GTC 2025發(fā)表演講《激發(fā)通用人工智能的創(chuàng)造力,引領(lǐng)智能汽車走向全新的未來》。
    的頭像 發(fā)表于 03-21 14:37 ?582次閱讀

    從Open Model Zoo下載的FastSeg大型公共預(yù)訓(xùn)練模型,無法導(dǎo)入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共預(yù)訓(xùn)練模型。 運行 converter.py 以將 FastSeg 大型模型轉(zhuǎn)換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    用PaddleNLP在4060單卡上實踐大模型預(yù)訓(xùn)練技術(shù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開始訓(xùn)練一個大語言模型需要投資多少錢》,其中高昂的預(yù)訓(xùn)練費用讓許多對大模型
    的頭像 發(fā)表于 02-19 16:10 ?988次閱讀
    用PaddleNLP在4060單卡上實踐大<b class='flag-5'>模型</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>技術(shù)

    清華與百合作共建生態(tài)環(huán)境預(yù)訓(xùn)練模型

    訓(xùn)練模型。這一合作基于清華大學(xué)在環(huán)境科學(xué)領(lǐng)域的深厚研究基礎(chǔ)和知識積累,以及百在人工智能技術(shù)方面的顯著優(yōu)勢。雙方將強強聯(lián)合,致力于將先進的人工智能技術(shù)應(yīng)用于生態(tài)環(huán)境保護領(lǐng)域,為可持續(xù)發(fā)展提供強有力的技術(shù)支持
    的頭像 發(fā)表于 01-17 10:04 ?512次閱讀

    清華與百攜手共建生態(tài)環(huán)境預(yù)訓(xùn)練模型

    近日,在“中國環(huán)境科學(xué)學(xué)會生態(tài)環(huán)境人工智能專委會成立大會暨學(xué)術(shù)論壇”上,清華大學(xué)環(huán)境學(xué)院的徐明教授宣布了一項重要戰(zhàn)略合作。清華大學(xué)將與百攜手,共同打造生態(tài)環(huán)境垂直領(lǐng)域的預(yù)訓(xùn)練模型。
    的頭像 發(fā)表于 01-16 11:07 ?516次閱讀

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型
    發(fā)表于 01-14 16:51

    模型訓(xùn)練框架(五)之Accelerate

    Hugging Face 的 Accelerate1是一個用于簡化和加速深度學(xué)習(xí)模型訓(xùn)練的庫,它支持在多種硬件配置上進行分布式訓(xùn)練,包括 CPU、GPU、TPU 等。Accelerat
    的頭像 發(fā)表于 01-14 14:24 ?702次閱讀

    KerasHub統(tǒng)一、全面的預(yù)訓(xùn)練模型

    深度學(xué)習(xí)領(lǐng)域正在迅速發(fā)展,在處理各種類型的任務(wù)中,預(yù)訓(xùn)練模型變得越來越重要。Keras 以其用戶友好型 API 和對易用性的重視而聞名,始終處于這一動向的前沿。Keras 擁有專用的內(nèi)容庫,如用
    的頭像 發(fā)表于 12-20 10:32 ?493次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型是一個簡稱,完整的叫法,應(yīng)該是“人工智能預(yù)訓(xùn)練模型”。預(yù)
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來的及大<b class='flag-5'>模型</b>作用

    中科創(chuàng)達旗下悟智能亮相CeMAT ASIA 2024

    2024年11月5-8日,CeMAT ASIA 2024在上海新國際博覽中心舉辦!悟智能以“創(chuàng)新物流 引領(lǐng)未來”為主題攜諸多新品亮相展會N1-B3展位,精彩不容錯過!
    的頭像 發(fā)表于 11-07 14:57 ?1011次閱讀

    華為宋迪出席自動駕駛網(wǎng)絡(luò)峰會

    第10屆全球超寬帶高峰論壇(UBBF 2024)期間,華為運營商業(yè)務(wù)首席營銷官宋迪博士出席自動駕駛網(wǎng)絡(luò)峰會,并發(fā)表主題致辭。會上,宋迪分享了華為與合作伙伴的產(chǎn)業(yè)發(fā)展及商業(yè)實踐成果。
    的頭像 發(fā)表于 11-04 16:08 ?798次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報告題目預(yù)
    的頭像 發(fā)表于 10-18 08:09 ?589次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    阻抗繼電器的0接線是因為什么

    ,即電流和電壓相位完全一致。這種接線方式在電力系統(tǒng)的保護中非常重要,因為它能夠準(zhǔn)確地反映系統(tǒng)的運行狀態(tài),從而提高保護的可靠性和準(zhǔn)確性。 1. 阻抗繼電器的基本原理 阻抗繼電器的工作原理基于電力系統(tǒng)中的阻抗變化。在正常
    的頭像 發(fā)表于 09-05 14:56 ?2381次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)

    的章節(jié)包括統(tǒng)一自然語言任務(wù)、大語言模型訓(xùn)練過程和局限性分析,閱讀還算順利。 至此,基礎(chǔ)只能算是瀏覽完成,因為部分原理方法并沒有吃透,但盡管如此也是收獲頗豐,
    發(fā)表于 07-25 14:33