一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌MIT最新研究證明:高質(zhì)量數(shù)據(jù)獲取不難,大模型就是歸途

CVer ? 來(lái)源:新智元 ? 2024-01-15 15:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】數(shù)據(jù)獲取最新解,便是從生成模型中學(xué)習(xí)。

獲取高質(zhì)量數(shù)據(jù),已經(jīng)成為當(dāng)前大模型訓(xùn)練的一大瓶頸。

前幾天,OpenAI被《紐約時(shí)報(bào)》起訴,并要求索賠數(shù)十億美元。訴狀中,列舉了GPT-4抄襲的多項(xiàng)罪證。

甚至,《紐約時(shí)報(bào)》還呼吁摧毀幾乎所有的GPT等大模型。

236ef1be-b365-11ee-8b88-92fbcf53809c.png

一直以來(lái),AI界多位大佬認(rèn)為「合成數(shù)據(jù)」或許是解決這個(gè)問(wèn)題的最優(yōu)解。

237c6ace-b365-11ee-8b88-92fbcf53809c.png

此前,谷歌團(tuán)隊(duì)還提出了用LLM代替人類標(biāo)記偏好的方法RLAIF,效果甚至不輸人類。

23821e7e-b365-11ee-8b88-92fbcf53809c.png

現(xiàn)如今,谷歌MIT的研究人員發(fā)現(xiàn),從大模型中學(xué)習(xí)可以得到使用真實(shí)數(shù)據(jù)訓(xùn)練的最佳模型的表征。

這一最新方法稱SynCLR,一種完全從合成圖像和合成描述學(xué)習(xí)虛擬表征的方法,無(wú)需任何真實(shí)數(shù)據(jù)。

23864198-b365-11ee-8b88-92fbcf53809c.png

論文地址:https://arxiv.org/abs/2312.17742

實(shí)驗(yàn)結(jié)果表明,通過(guò)SynCLR方法學(xué)習(xí)到的表征,能夠與OpenAI的CLIP在ImageNet 上的傳輸效果一樣好。

238a48a6-b365-11ee-8b88-92fbcf53809c.png

從生成模型中學(xué)習(xí)

目前表現(xiàn)最好的「視覺表征」學(xué)習(xí)方法依賴于大規(guī)模的實(shí)際數(shù)據(jù)集。然而,真實(shí)數(shù)據(jù)的收集卻有不少的困難。

為了降低收集數(shù)據(jù)的成本,研究人員本文中提出了一個(gè)問(wèn)題:

從現(xiàn)成的生成模型中采樣的合成數(shù)據(jù),是否是一條通往大規(guī)模策劃數(shù)據(jù)集的可行之路,從而訓(xùn)練出最先進(jìn)的視覺表征?

2394f6fc-b365-11ee-8b88-92fbcf53809c.png

與直接從數(shù)據(jù)中學(xué)習(xí)不同,谷歌研究人員稱這種模式為「從模型中學(xué)習(xí)」。作為建立大規(guī)模訓(xùn)練集的數(shù)據(jù)源,模型有幾個(gè)優(yōu)勢(shì):

- 通過(guò)其潛在變量、條件變量和超參數(shù),為數(shù)據(jù)管理提供了新的控制方法。

- 模型也更容易共享和存儲(chǔ)(因?yàn)槟P捅葦?shù)據(jù)更容易壓縮),并且可以產(chǎn)生無(wú)限數(shù)量的數(shù)據(jù)樣本。

越來(lái)越多的文獻(xiàn)研究了生成模型的這些特性和其他優(yōu)點(diǎn)和缺點(diǎn),并將其作為訓(xùn)練下游模型的數(shù)據(jù)源。

其中一些方法采用混合模式,即混合真實(shí)數(shù)據(jù)集和合成數(shù)據(jù)集,或需要一個(gè)真實(shí)數(shù)據(jù)集來(lái)生成另一個(gè)合成數(shù)據(jù)集。

其他方法試圖從純粹的「合成數(shù)據(jù)」中學(xué)習(xí)表征,但遠(yuǎn)遠(yuǎn)落后于表現(xiàn)最好的模型。

論文中,研究人員提出的最新方法,使用生成模型重新定義可視化類的粒度。

如圖2所示,使用2個(gè)提示生成了四張圖片「一只戴著墨鏡和沙灘帽的金毛獵犬騎著自行車」和「一只可愛的金毛獵犬坐在壽司做成的房子里」。

2398edf2-b365-11ee-8b88-92fbcf53809c.png

傳統(tǒng)的自監(jiān)督方法(如Sim-CLR)會(huì)將這些圖像視為不同的類,不同圖像的嵌入會(huì)被分開,而不會(huì)明確考慮圖像之間的共享語(yǔ)義。

另一個(gè)極端是,監(jiān)督學(xué)習(xí)方法(即SupCE)會(huì)將所有這些圖像視為單一類(如「金毛獵犬」)。這就忽略了這些圖像在語(yǔ)義上的細(xì)微差別,例如在一對(duì)圖像中狗在騎自行車,而在另一對(duì)圖像中狗坐在壽司屋內(nèi)。

相反,SynCLR方法將描述視為類,即每個(gè)描述一個(gè)可視化類。

這樣,我們就可以按照「騎自行車」和「坐在壽司店里」這兩個(gè)概念對(duì)圖片進(jìn)行分組。

這種粒度很難在真實(shí)數(shù)據(jù)中挖掘,因?yàn)槭占山o定描述的多張圖片并非易事,尤其是當(dāng)描述數(shù)量增加時(shí)。

然而,文本到圖像的擴(kuò)散模型從根本上就具備這種能力。

只需對(duì)相同的描述設(shè)定條件,并使用不同的噪聲輸入,文本到圖像的擴(kuò)散模型就能生成與相同描述相匹配的不同圖像。

具體來(lái)說(shuō),作者研究了在沒有真實(shí)圖像或文本數(shù)據(jù)的情況下,學(xué)習(xí)視覺編碼器的問(wèn)題。

最新方法依賴3個(gè)關(guān)鍵資源的利用:一個(gè)語(yǔ)言生成模型(g1),一個(gè)文本到圖像的生成模型(g2),以及一個(gè)經(jīng)過(guò)整理的視覺概念列表(c)。

前處理包括三個(gè)步驟:

(1)使用(g1)合成一組全面的圖像描述T,其中涵蓋了C中的各種視覺概念;

(2)對(duì)于T中的每個(gè)標(biāo)題,使用(g2)生成多個(gè)圖像,最終生成一個(gè)廣泛的合成圖像數(shù)據(jù)集X;

(3)在X上進(jìn)行訓(xùn)練,以獲得視覺表示編碼器f。

然后,分別使用llama-27b和Stable Diffusion 1.5作為(g1)和(g2),因?yàn)槠渫评硭俣群芸臁?/p>

合成描述

為了利用強(qiáng)大的文本到圖像模型的能力,來(lái)生成大量的訓(xùn)練圖像數(shù)據(jù)集,首先需要一個(gè)不僅精確描述圖像而且展示多樣性的描述集合,以包含廣泛的視覺概念。

對(duì)此,作者開發(fā)了一種可擴(kuò)展的方法來(lái)創(chuàng)建如此大量的描述集,利用大模型的上下文學(xué)習(xí)能力。

如下展示了三個(gè)合成模板的示例。

239dfde2-b365-11ee-8b88-92fbcf53809c.png

如下是使用Llama-2生成上下文描述,研究人員在每次推理運(yùn)行中隨機(jī)抽取三個(gè)上下文示例。

23a225c0-b365-11ee-8b88-92fbcf53809c.png

合成圖像

對(duì)于每個(gè)文本描述,研究人員都會(huì)用不同的隨機(jī)噪聲啟動(dòng)反向擴(kuò)散過(guò)程,從而生成各種圖像。

在此過(guò)程中,無(wú)分類器引導(dǎo)(CFG)比例是一個(gè)關(guān)鍵因素。

CFG標(biāo)度越高,樣本的質(zhì)量和文本與圖像之間的一致性就越好,而標(biāo)度越低,樣本的多樣性就越大,也就越符合基于給定文本的圖像原始條件分布。

23acdab0-b365-11ee-8b88-92fbcf53809c.png

表征學(xué)習(xí)

論文中,表征學(xué)習(xí)的方法建立在StableRep的基礎(chǔ)上。

作者提出的方法的關(guān)鍵組成部分是多正對(duì)比學(xué)習(xí)損失,它的工作原理是對(duì)齊(在嵌入空間)從同一描述生成的圖像。

另外,研究中還結(jié)合了其他自監(jiān)督學(xué)習(xí)方法的多種技術(shù)。

與OpenAI的CLIP相媲美

實(shí)驗(yàn)評(píng)估中,研究人員首先進(jìn)行消融研究,以評(píng)估管道內(nèi)各種設(shè)計(jì)和模塊的有效性,然后繼續(xù)擴(kuò)大合成數(shù)據(jù)的量。

下圖是不同描述合成策略的比較。

研究人員報(bào)告了9個(gè)細(xì)粒度數(shù)據(jù)集的ImageNet線性評(píng)估準(zhǔn)確性和平均準(zhǔn)確性。這里的每個(gè)項(xiàng)目包括1000萬(wàn)個(gè)描述和每個(gè)描述4張圖片。

23b2e8ec-b365-11ee-8b88-92fbcf53809c.png

下表是ImageNet線性評(píng)估與細(xì)粒度分類的比較。

盡管只使用了合成數(shù)據(jù),但SynCLR與OpenAI的CLIP和DINO v2模型取得了不相上下的結(jié)果。

23b6b3b4-b365-11ee-8b88-92fbcf53809c.png

下表是在相同的合成數(shù)據(jù)上比較SynCLR和CLIP,可以看出,SynCLR明顯優(yōu)于CLIP。

具體設(shè)置為,每個(gè)標(biāo)題生成4個(gè)圖像,SynCaps-150M為SynCLR和CLIP提供了更好的表示。

23bb41b8-b365-11ee-8b88-92fbcf53809c.png

PCA可視化如下。按照DINO v2,研究人員計(jì)算了同一組圖像的斑塊之間的PCA,并根據(jù)其前3個(gè)分量進(jìn)行著色。

與DINO v2相比,SynCLR對(duì)汽車和飛機(jī)的繪制的圖更為準(zhǔn)確,而對(duì)能繪制的圖則稍差一些。

23cc3496-b365-11ee-8b88-92fbcf53809c.png

圖6和圖7中,分別展示了不同訓(xùn)練規(guī)模下的ImageNet線性準(zhǔn)確率,以及不同訓(xùn)練參數(shù)規(guī)模下的精細(xì)分類。

23d0c47a-b365-11ee-8b88-92fbcf53809c.png

為什么要從生成模型中學(xué)習(xí)?

一個(gè)令人信服的原因是,生成模型可以像數(shù)百個(gè)數(shù)據(jù)集一樣同時(shí)運(yùn)作,能夠?yàn)椴邉澯?xùn)練數(shù)據(jù)提供了一種方便有效的方法。

總而言之,最新論文研究了視覺表征學(xué)習(xí)的新范式——從生成模型中學(xué)習(xí)。

在沒有使用任何實(shí)際數(shù)據(jù)的情況下,SynCLR學(xué)習(xí)到的視覺表征,與最先進(jìn)的通用視覺表征學(xué)習(xí)器學(xué)習(xí)到的視覺表征不相上下。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50426
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16092
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1210

    瀏覽量

    8921
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3146

    瀏覽量

    4071

原文標(biāo)題:谷歌MIT最新研究證明:高質(zhì)量數(shù)據(jù)獲取不難,大模型就是歸途

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    SCTF星通時(shí)頻參加2025高新技術(shù)企業(yè)高質(zhì)量發(fā)展論壇

    近日,由暨南大學(xué)主辦、泰克威創(chuàng)新發(fā)展研究院承辦的“高新技術(shù)企業(yè)高質(zhì)量發(fā)展論壇”在廣州成功舉辦。
    的頭像 發(fā)表于 07-08 17:47 ?334次閱讀

    新能源變革之路,要建在“高質(zhì)量”的路基上

    高質(zhì)量”是能源革命的前提與基座
    的頭像 發(fā)表于 06-24 11:42 ?1715次閱讀
    新能源變革之路,要建在“<b class='flag-5'>高質(zhì)量</b>”的路基上

    賦能民營(yíng)經(jīng)濟(jì) 共促高質(zhì)量發(fā)展

    為貫徹落實(shí)民營(yíng)經(jīng)濟(jì)高質(zhì)量發(fā)展戰(zhàn)略部署,中國(guó)民營(yíng)經(jīng)濟(jì)促進(jìn)會(huì)于 6 月 11 日組織專家團(tuán)——由全國(guó)工商聯(lián)研究室一級(jí)巡視員、中國(guó)民營(yíng)經(jīng)濟(jì)研究會(huì)執(zhí)行副會(huì)長(zhǎng)兼秘書長(zhǎng)沈麗霞帶隊(duì)(成員包括機(jī)械工業(yè)信息研究
    的頭像 發(fā)表于 06-12 16:17 ?515次閱讀
    賦能民營(yíng)經(jīng)濟(jì) 共促<b class='flag-5'>高質(zhì)量</b>發(fā)展

    淺析:數(shù)字經(jīng)濟(jì)時(shí)代,高質(zhì)量數(shù)據(jù)集對(duì)AI產(chǎn)業(yè)帶來(lái)哪些新的變化

    ?在數(shù)字經(jīng)濟(jì)與人工智能深度融合的今天,數(shù)據(jù)已超越傳統(tǒng)生產(chǎn)要素,成為驅(qū)動(dòng)AI技術(shù)突破與產(chǎn)業(yè)變革的核心動(dòng)力。高質(zhì)量數(shù)據(jù)集不僅是AI模型性能躍升的基石,更重塑了從技術(shù)研發(fā)到商業(yè)落地的全產(chǎn)業(yè)鏈條。 近年來(lái)
    的頭像 發(fā)表于 05-09 15:10 ?287次閱讀

    高質(zhì)量 HarmonyOS 權(quán)限管控流程

    高質(zhì)量 HarmonyOS 權(quán)限管控流程 在 HarmonyOS 應(yīng)用開發(fā)過(guò)程中,往往會(huì)涉及到 敏感數(shù)據(jù) 和 硬件資源 的調(diào)動(dòng)和訪問(wèn),而這部分的調(diào)用就會(huì)涉及到管控這部分的知識(shí)和內(nèi)容了。我們需要對(duì)它有
    的頭像 發(fā)表于 04-02 18:29 ?938次閱讀
    <b class='flag-5'>高質(zhì)量</b> HarmonyOS 權(quán)限管控流程

    喜報(bào)丨阿丘科技榮登蘇州市人工智能大模型高質(zhì)量數(shù)據(jù)集雙項(xiàng)榜單

    科技”)憑借自主研發(fā)的“PCB缺陷檢測(cè)視覺大模型”與“AQ工業(yè)基礎(chǔ)材料加工缺陷數(shù)據(jù)集”,分別入選“蘇州市級(jí)培育人工智能大模型”及“蘇州市首批行業(yè)高質(zhì)量數(shù)據(jù)集”兩大榜單。厚
    的頭像 發(fā)表于 02-21 11:18 ?632次閱讀
    喜報(bào)丨阿丘科技榮登蘇州市人工智能大<b class='flag-5'>模型</b>與<b class='flag-5'>高質(zhì)量數(shù)據(jù)</b>集雙項(xiàng)榜單

    廣汽集團(tuán)召開高質(zhì)量發(fā)展大會(huì)

    春回大地,萬(wàn)象更新。近兩日廣東省、廣州市聚焦“建設(shè)現(xiàn)代化產(chǎn)業(yè)體系”主題,相繼召開“新春第一會(huì)”——高質(zhì)量發(fā)展大會(huì),吹響奮進(jìn)號(hào)角。廣汽集團(tuán)黨委書記、董事長(zhǎng)馮興亞作為省市重點(diǎn)產(chǎn)業(yè)高質(zhì)量發(fā)展代表參加會(huì)議,與產(chǎn)學(xué)研各界代表共聚一堂,共繪廣東、廣州
    的頭像 發(fā)表于 02-07 10:18 ?603次閱讀

    電動(dòng)工具EMC測(cè)試整改:邁向高質(zhì)量生產(chǎn)的必經(jīng)之路

    深圳南柯電子|電動(dòng)工具EMC測(cè)試整改:邁向高質(zhì)量生產(chǎn)的必經(jīng)之路
    的頭像 發(fā)表于 01-14 14:29 ?518次閱讀
    電動(dòng)工具EMC測(cè)試整改:邁向<b class='flag-5'>高質(zhì)量</b>生產(chǎn)的必經(jīng)之路

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢(shì)可以帶來(lái)顯著的成果。通過(guò)利用谷歌的 Gemini 模型來(lái)制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3 模型根據(jù)這些提示生成
    的頭像 發(fā)表于 01-03 10:38 ?899次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen<b class='flag-5'>模型</b>生成<b class='flag-5'>高質(zhì)量</b>圖像

    訊飛星辰MaaS平臺(tái)完成全新升級(jí)

    高質(zhì)量數(shù)據(jù)的助攻,讓微調(diào)大模型青出于藍(lán)而勝于藍(lán)!
    的頭像 發(fā)表于 11-22 10:38 ?1319次閱讀

    標(biāo)貝科技:AI基礎(chǔ)數(shù)據(jù)服務(wù),人工智能行業(yè)發(fā)展的底層支撐

    隨著不同大模型在語(yǔ)言理解及生成等領(lǐng)域的出色表現(xiàn),大模型別后的規(guī)模規(guī)律不斷強(qiáng)化數(shù)據(jù)在要提升AI性能上的關(guān)鍵作用,AI數(shù)據(jù)服務(wù)可加速高質(zhì)量數(shù)據(jù)
    的頭像 發(fā)表于 11-14 18:32 ?621次閱讀
    標(biāo)貝科技:AI基礎(chǔ)<b class='flag-5'>數(shù)據(jù)</b>服務(wù),人工智能行業(yè)發(fā)展的底層支撐

    使用AI大模型進(jìn)行數(shù)據(jù)分析的技巧

    以及后續(xù)的分析步驟。 確定需要分析的數(shù)據(jù)類型、規(guī)模和復(fù)雜度,以便選擇合適的AI大模型。 二、高質(zhì)量數(shù)據(jù)收集與處理 數(shù)據(jù)來(lái)源 :從可靠的來(lái)源收集數(shù)據(jù)
    的頭像 發(fā)表于 10-23 15:14 ?2765次閱讀

    白皮書下載丨《生成式AI如何改變AI缺陷檢測(cè)的傳統(tǒng)范式》

    在自動(dòng)化和智能化技術(shù)飛速發(fā)展的今天,制造業(yè)對(duì)AI視覺技術(shù)的需求日益增長(zhǎng)。然而,高質(zhì)量的訓(xùn)練數(shù)據(jù)獲取成為制約AI模型性能提升的關(guān)鍵因素。傳統(tǒng)的數(shù)據(jù)
    的頭像 發(fā)表于 10-18 08:05 ?753次閱讀
    白皮書下載丨《生成式AI如何改變AI缺陷檢測(cè)的傳統(tǒng)范式》

    中興通訊引領(lǐng)5G-A高質(zhì)量發(fā)展新紀(jì)元

    中國(guó)5G商用5周年之際,以“智聯(lián)未來(lái) 無(wú)限可能”為主題的2024移動(dòng)通信高質(zhì)量發(fā)展論壇在北京舉辦。本屆論壇系統(tǒng)呈現(xiàn)總結(jié)我國(guó)移動(dòng)通信,特別是5G產(chǎn)業(yè)自身高質(zhì)量發(fā)展和引領(lǐng)數(shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展的成果和經(jīng)驗(yàn),展望5G-A、6G協(xié)同創(chuàng)新發(fā)展
    的頭像 發(fā)表于 10-15 10:32 ?1055次閱讀

    中國(guó)算力大會(huì)召開,業(yè)界首個(gè)算力高質(zhì)量評(píng)估體系發(fā)布

    首次完整地構(gòu)建了人工智能時(shí)代高質(zhì)量算力的理論體系,并探索性提出業(yè)界首個(gè) "五位一體"的高質(zhì)量算力評(píng)估體系。 發(fā)布現(xiàn)場(chǎng) 在當(dāng)前由大模型和AIGC驅(qū)動(dòng)的AI時(shí)代,算力需求暴增,同時(shí)還面臨供給不足、供需匹配難、能耗激增等挑戰(zhàn),亟需算力
    的頭像 發(fā)表于 09-28 16:50 ?491次閱讀
    中國(guó)算力大會(huì)召開,業(yè)界首個(gè)算力<b class='flag-5'>高質(zhì)量</b>評(píng)估體系發(fā)布