一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟亞研提出VL-BERT,現(xiàn)取得了當(dāng)前單模型的最好效果

JqWP_youuav ? 來源:陳年麗 ? 2019-09-03 15:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機(jī)器之心發(fā)布

來自中科大、微軟亞研院的研究者們提出了一種新型的通用視覺-語(yǔ)言預(yù)訓(xùn)練模型(Visual-Linguistic BERT,簡(jiǎn)稱 VL-BERT),該模型采用簡(jiǎn)單而強(qiáng)大的 Transformer 模型作為主干網(wǎng)絡(luò),并將其輸入擴(kuò)展為同時(shí)包含視覺與語(yǔ)言輸入的多模態(tài)形式,適用于絕大多數(shù)視覺-語(yǔ)言下游任務(wù)。

為了讓 VL-BERT 模型利用更為通用的特征表示,作者在大規(guī)模圖片描述生成數(shù)據(jù)集 ConceptualCaptions 中進(jìn)行 VL-BERT 的預(yù)訓(xùn)練,實(shí)驗(yàn)證明此預(yù)訓(xùn)練過程可以顯著提高下游的視覺-語(yǔ)言任務(wù)的效果,包含視覺常識(shí)推理、視覺問答與引用表達(dá)式理解等。值得一提的是,在視覺常識(shí)推理排行榜中,VL-BERT 取得了當(dāng)前單模型的最好效果。

適用于下游任務(wù)的通用特征表示預(yù)訓(xùn)練是深度網(wǎng)絡(luò)成功的標(biāo)志之一。在計(jì)算機(jī)視覺領(lǐng)域,深度網(wǎng)絡(luò)在 ImageNet 數(shù)據(jù)集進(jìn)行圖像分類的預(yù)訓(xùn)練過程,被發(fā)現(xiàn)可廣泛提高多種圖像識(shí)別任務(wù)的效果。在自然語(yǔ)言處理領(lǐng)域中,Transformer 模型在大規(guī)模語(yǔ)料庫(kù)中使用語(yǔ)言模型進(jìn)行預(yù)訓(xùn)練的過程,也被證明可廣泛提高多種自然語(yǔ)言處理任務(wù)的效果。

但對(duì)于計(jì)算機(jī)視覺和自然語(yǔ)言處理領(lǐng)域交叉的任務(wù),例如圖像標(biāo)題生成、視覺問答、視覺常識(shí)推理等,缺少這種預(yù)訓(xùn)練的通用多模態(tài)特征表示。

一般來說,之前的視覺-語(yǔ)言模型分別使用計(jì)算機(jī)視覺或自然語(yǔ)言處理領(lǐng)域中的預(yù)訓(xùn)練模型進(jìn)行初始化,但如果目標(biāo)任務(wù)數(shù)據(jù)量不足,模型容易過擬合從而損失性能。并且對(duì)于不同的視覺-語(yǔ)言任務(wù),其網(wǎng)絡(luò)架構(gòu)一般是經(jīng)過特殊設(shè)計(jì)的,由此很難通過視覺-語(yǔ)言聯(lián)合預(yù)訓(xùn)練的過程幫助下游任務(wù)。

由此,在本文中,提出了一種可廣泛應(yīng)用于視覺-語(yǔ)言任務(wù)的預(yù)訓(xùn)練通用特征表示,稱為 Visual-LinguisitcBERT,簡(jiǎn)稱 VL-BERT,其架構(gòu)如下圖所示:

VL-BERT 的主干網(wǎng)絡(luò)使用 TransformerAttention 模塊,并將視覺與語(yǔ)言嵌入特征作為輸入,其中輸入的每個(gè)元素是來自句子中的單詞、或圖像中的感興趣區(qū)域(Region of Interests,簡(jiǎn)稱 RoIs)。在模型訓(xùn)練的過程中,每個(gè)元素均可以根據(jù)其內(nèi)容、位置、類別等信息自適應(yīng)地聚合來自所有其他元素的信息。在堆疊多層 TransformerAttention 模塊后,其特征表示即具有更為豐富的聚合與對(duì)齊視覺和語(yǔ)言線索的能力。

為了更好地建模通用的視覺-語(yǔ)言表示,在大規(guī)模視覺-語(yǔ)言語(yǔ)料庫(kù)中對(duì) VL-BERT 進(jìn)行了預(yù)訓(xùn)練。采用的預(yù)訓(xùn)練數(shù)據(jù)集為圖像標(biāo)題生成數(shù)據(jù)集,Conceptual Captions,其中包含了大約 330 萬(wàn)個(gè)圖像標(biāo)題對(duì)。

VL-BERT 的預(yù)訓(xùn)練主要采用三個(gè)任務(wù):a) 屏蔽語(yǔ)言模型(Masked Language Modeling),即隨機(jī)屏蔽掉語(yǔ)句中的一些詞,并預(yù)測(cè)當(dāng)前位置的詞是什么;b) 屏蔽 RoI 分類(MaskedRoIClassification),即隨機(jī)屏蔽掉視覺輸入中的一些 RoIs,并預(yù)測(cè)此空間位置對(duì)應(yīng) RoI 的所屬類別;c) 圖像標(biāo)題關(guān)聯(lián)預(yù)測(cè)(Sentence-Image Relationship Prediction),即預(yù)測(cè)圖像與標(biāo)題是否屬于同一對(duì)。

在預(yù)訓(xùn)練結(jié)束后,使用微調(diào)來進(jìn)行下游任務(wù)的訓(xùn)練。本文中主要在三個(gè)視覺-語(yǔ)言下游任務(wù)中進(jìn)行微調(diào),即視覺常識(shí)推理(VisualCommonsenseReasoning)、視覺問答(VisualQuestionAnswering)與引用表達(dá)式理解(ReferringExpressionComprehension),下面將分別介紹。

視覺常識(shí)推理任務(wù)即給定圖片與相關(guān)問題,機(jī)器不僅需要回答問題,還需要提供理由來證明答案的正確性。此任務(wù)(Q-》AR)被分解為兩個(gè)子任務(wù),即視覺問答(Q-》A,給定圖片與問題,輸出正確答案),以及視覺推理(QA-》R,給定圖片、問題與答案,輸出正確的理由)。

下面以視覺問答子任務(wù)為例,此任務(wù)的輸入為問題、答案與圖像的 RoIs,并預(yù)測(cè)此答案是否為正確答案。除此之外,作者發(fā)現(xiàn)微調(diào)時(shí)增加與預(yù)訓(xùn)練類似的 RoI 分類損失也會(huì)進(jìn)一步提升性能,如下:

視覺問答任務(wù)即給定圖片,回答與圖片輸入相關(guān)的問題。由此模型的輸入即為問題與圖像,基本元素為單詞或 RoI,最終對(duì)答案進(jìn)行預(yù)測(cè),如下:

引用表達(dá)式理解任務(wù)是使用給定的引用表達(dá)式來定位圖像中的相關(guān)對(duì)象,由此輸入為查詢(引用表達(dá)式)與圖片中的 RoIs,并預(yù)測(cè)哪個(gè) RoI 為查詢輸入的引用,如下:

下面將介紹論文中的一些主要實(shí)驗(yàn)結(jié)果:

a)在視覺常識(shí)推理(Visual Commonsense Reasoning)任務(wù)中,與當(dāng)前最好方法的結(jié)果比較如下:

b)在視覺問答(Visual Question Answering)任務(wù)中,與當(dāng)前最好方法的結(jié)果比較如下:

c)在引用表達(dá)式理解(Referring Expression Comprehension)任務(wù)中,與當(dāng)前最好方法的結(jié)果比較如下:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6684

    瀏覽量

    105673
  • 機(jī)器
    +關(guān)注

    關(guān)注

    0

    文章

    790

    瀏覽量

    41230

原文標(biāo)題:牛人發(fā)明無人機(jī)自動(dòng)建房,空中噴“水泥”,網(wǎng)友:建筑工人要失業(yè)

文章出處:【微信號(hào):youuav,微信公眾號(hào):無人機(jī)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    CADENAS 在 2025 年金字塔公司聯(lián)系博覽會(huì)上取得圓滿成功

    表現(xiàn)出了極大的積極性和好奇心。這種直接的交流和相互了解讓我們覺得這次招聘會(huì)非常特別! 感謝奧格斯堡大學(xué)的活動(dòng)團(tuán)隊(duì) 展會(huì)出色的組織工作、友好的氛圍以及美味的食物再次給我們留下了深刻印象。每年的金字塔公司招聘會(huì)都為我們提供了一個(gè)接觸年輕人才的絕佳平臺(tái),2025 年的招聘會(huì)對(duì)我們來說又一次取得了圓滿成功。
    發(fā)表于 06-04 14:32

    利用英特爾OpenVINO在本地運(yùn)行Qwen2.5-VL系列模型

    近期阿里通義實(shí)驗(yàn)室在 Hugging Face 和 ModelScope 上開源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和 72B 在內(nèi)的 3 個(gè)模型尺寸。
    的頭像 發(fā)表于 03-12 13:42 ?993次閱讀
    利用英特爾OpenVINO在本地運(yùn)行Qwen2.5-<b class='flag-5'>VL</b>系列<b class='flag-5'>模型</b>

    使用OpenVINO? 2021.4在CPU和MYRIAD上進(jìn)行自定義對(duì)象檢測(cè),為什么結(jié)果差異巨大?

    使用自定義訓(xùn)練的模型執(zhí)行推理,以便在 2021.4 OpenVINO?中進(jìn)行人員檢測(cè)。 與 MYRIAD 相比,CPU 的輸出結(jié)果取得了巨大的差異
    發(fā)表于 03-06 07:45

    中科馭數(shù)DPU助力大模型訓(xùn)練和推理

    隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,大模型(如GPT、BERT等)在自然語(yǔ)言處理、計(jì)算機(jī)視覺等領(lǐng)域取得了顯著成果。然而,大模型的參數(shù)量和計(jì)算量極其龐大,傳統(tǒng)的硬件架構(gòu)或者單臺(tái)設(shè)備(如單個(gè)GPU
    的頭像 發(fā)表于 02-19 09:48 ?665次閱讀
    中科馭數(shù)DPU助力大<b class='flag-5'>模型</b>訓(xùn)練和推理

    字節(jié)豆包大模型團(tuán)隊(duì)推出UltraMem稀疏架構(gòu)

    字節(jié)跳動(dòng)豆包大模型Foundation團(tuán)隊(duì)近期在稀疏模型架構(gòu)領(lǐng)域取得了新突破,提出了一種名為UltraMem的新型架構(gòu)。這一架構(gòu)通過將計(jì)算和參數(shù)解耦,成功解決了
    的頭像 發(fā)表于 02-13 11:17 ?702次閱讀

    大連理工提出基于Wasserstein距離(WD)的知識(shí)蒸餾方法

    的機(jī)制,應(yīng)用于中間層蒸餾時(shí)存在問題,其無法處理不重疊的分布且無法感知底層流形的幾何結(jié)構(gòu)。 為了解決這些問題,大連理工大學(xué)的研究人員提出了一種基于 Wasserstein 距離(WD)的知識(shí)蒸餾方法。所提出方法在圖像分類和目標(biāo)檢測(cè)任務(wù)上均
    的頭像 發(fā)表于 01-21 09:45 ?625次閱讀

    基于移動(dòng)自回歸的時(shí)序擴(kuò)散預(yù)測(cè)模型

    回歸取得了比傳統(tǒng)基于噪聲的擴(kuò)散模型更好的生成效果,并且獲得了人工智能頂級(jí)會(huì)議 NeurIPS 2024 的 best paper。 然而在時(shí)間序列預(yù)測(cè)領(lǐng)域,
    的頭像 發(fā)表于 01-03 14:05 ?868次閱讀
    基于移動(dòng)自回歸的時(shí)序擴(kuò)散預(yù)測(cè)<b class='flag-5'>模型</b>

    微軟科技2025年的新年祝福

    2024即將畫上句號(hào),在過去的一年里,很微軟 AI持續(xù)創(chuàng)新和突破,并取得了矚目的成就。
    的頭像 發(fā)表于 01-02 09:09 ?565次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    取得了令人矚目的效果。 閱讀感悟 從傳統(tǒng)的手動(dòng)編程到借助大模型實(shí)現(xiàn)智能化、自主化,從單一模態(tài)的交互到多模態(tài)信息的深度融合,再到擴(kuò)散模型的應(yīng)用,機(jī)器人控制技術(shù)正在以驚人的速度進(jìn)化。這不
    發(fā)表于 12-29 23:04

    國(guó)外科研團(tuán)隊(duì)在X射線科學(xué)領(lǐng)域取得了重大突破

    近日,據(jù)《自然·光子學(xué)》報(bào)道,歐洲X射線自由電子激光裝置(XFEL)和德國(guó)電子同步加速器研究中心團(tuán)隊(duì)在X射線科學(xué)領(lǐng)域取得了重大突破。他們成功生成了前所未有的高功率、阿秒級(jí)硬X射線脈沖,且重復(fù)頻率達(dá)到
    的頭像 發(fā)表于 12-20 09:11 ?420次閱讀

    當(dāng)前主流的大模型對(duì)于底層推理芯片提出了哪些挑戰(zhàn)

    隨著大模型時(shí)代的到來,AI算力逐漸變成重要的戰(zhàn)略資源,對(duì)現(xiàn)有AI芯片也提出了前所未有的挑戰(zhàn):大算力的需求、高吞吐量與低延時(shí)、高效內(nèi)存管理、能耗等等。
    的頭像 發(fā)表于 09-24 16:57 ?1172次閱讀

    通義千問發(fā)布第二代視覺語(yǔ)言模型Qwen2-VL

    。Qwen2-VL系列模型在多模態(tài)處理領(lǐng)域取得了突破性進(jìn)展,于多個(gè)權(quán)威測(cè)評(píng)中嶄露頭角,刷新了多項(xiàng)最佳成績(jī)記錄,展現(xiàn)出強(qiáng)大的視覺理解與語(yǔ)言交互能力。
    的頭像 發(fā)表于 09-03 16:31 ?851次閱讀

    華無風(fēng)扇BOX PC搭載兆芯KX-6000G處理器

    近日,工控領(lǐng)導(dǎo)企業(yè)華基于兆芯開先KX-6000G高效能處理器打造的新一代多擴(kuò)展無風(fēng)扇BOX PC——ITA-166順利上市。此前,華基于兆芯處理器已經(jīng)成功開發(fā)出多款工業(yè)電腦,并取得了良好的市場(chǎng)反饋。
    的頭像 發(fā)表于 08-28 11:19 ?997次閱讀

    Google Gemma 2模型的部署和Fine-Tune演示

    Google 近期發(fā)布了最新開放模型 Gemma 2,目前與同等規(guī)模的開放模型相比,取得了明顯的優(yōu)勢(shì),同時(shí)在安全可控性上得到了顯著的增強(qiáng)。
    的頭像 發(fā)表于 08-09 17:04 ?1281次閱讀
    Google Gemma 2<b class='flag-5'>模型</b>的部署和Fine-Tune演示

    如何不用wifi_station_scan() 取得當(dāng)前已經(jīng)連線AP的BSSID?

    請(qǐng)問如何不用 wifi_station_scan() 取得當(dāng)前已經(jīng)連線 AP 的 BSSID? 使用 wifi_station_scan() 會(huì)造成當(dāng)前連線出現(xiàn)斷線等問題,是否有其他不影響連線的取得方式?
    發(fā)表于 07-12 15:25