一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

幻覺降低30%!首個多模態(tài)大模型幻覺修正工作Woodpecker

智能感知與物聯(lián)網(wǎng)技術研究所 ? 來源:未知 ? 2023-10-30 11:05 ? 次閱讀
視覺幻覺是常見于多模態(tài)大語言模型 (Multimodal Large Language Models, MLLMs) 的一個典型問題,它指的是"模型輸出的描述與圖片內容不相符"這一現(xiàn)象,如下圖所示:

wKgZomVQmI6AfJAeAASklfYgC5Y728.png

圖中體現(xiàn)了兩種幻覺,紅色部分錯誤地描述了狗的顏色(屬性幻覺),藍色部分描述了圖中實際不存在的事物(目標幻覺)?;糜X對模型的可靠性產(chǎn)生了顯著的負面影響,因此引起了許多研究者的重視。

以往的方法主要集中在 MLLM 本身,通過在訓練數(shù)據(jù)以及架構上進行改進,以重新微調的方式訓練一個新的 MLLM。這種方式會造成較大的數(shù)據(jù)構建和訓練開銷,且較難推廣到各種已有的 MLLMs。

近日,來自中科大等機構的研究者們提出了一種免訓練的即插即用的通用架構“啄木鳥(Woodpecker)”,通過修正的方式解決 MLLM 輸出幻覺的問題。

wKgZomU_Ho6AbEbEAAL-ApHKwQg789.png

論文鏈接:
https://arxiv.org/pdf/2310.16045.pdf
代碼鏈接:
https://github.com/BradyFU/Woodpecker
Woodpecker 可以修正各種場景下模型輸出的幻覺,并輸出檢測框作為引證,表明相應的目標確實存在。例如,面對描述任務,Woodpecker 可以修正其中帶有幻覺的部分。

wKgaomVQmKeAOfU4AARjczA60Ts920.png

對于 MLLM 難以檢測到的小對象,Woodpecker 也可以精準修正:

wKgaomVQmMCAb8c_AAE0uSDzseg010.png

面對 MLLM 難以解決的復雜的計數(shù)場景,Woodpecker 同樣可以進行解決:

wKgZomVQmNqAAe6EAAJhEa7mVbI506.png

對于目標屬性類的幻覺問題,Woopecker 處理地也很好:

wKgaomVQmQGAZktYAAGhMIx_etY271.png

我們還提供了 Demo 供讀者測試使用,如下圖所示,上傳圖片并輸入請求,就可以得到修正前以及修正后的模型答復,以及供參考驗證的新圖片。

wKgaomVQmSWAM2BhAAR7XPMAejw641.png

wKgZomU_Ho-AGLnMAAAl6LOgh3c590.png

方法

Woodpecker 的架構如下,它包括五個主要步驟:關鍵概念提取、問題構造、視覺知識檢驗、視覺斷言生成以及幻覺修正

wKgZomVQmUOAKZCGAASXeRgIHgo653.png

關鍵概念提?。?/span>關鍵概念指的是 MLLM 的輸出中最可能存在幻覺的存在性目標,例如上圖描述中的“自行車;垃圾桶;人”。我們可以 Prompt 大語言模型來提取出這些關鍵概念,這些關鍵概念是后續(xù)步驟進行的基礎;

問題構造:圍繞著前一步提取出的關鍵概念,Prompt 大語言模型來提出一些有助于檢驗圖片描述真?zhèn)蔚膯栴},如“圖中有幾輛自行車?”、“垃圾桶邊上的是什么?”等等;

視覺知識檢驗:使用視覺基礎模型對提出的問題進行檢驗,獲得與圖片以及描述文本相關的信息。例如,我們可以利用 GroundingDINO 來進行目標檢測,確定關鍵目標是否存在以及關鍵目標的數(shù)量。這里我們認為像 GroundingDINO 這類視覺基礎模型對圖片的感知能力比 MLLM 本身的感知能力更強。對于目標顏色等這類屬性問題,我們可以利用 BLIP-2 來進行回答。BLIP-2這類傳統(tǒng) VQA 模型輸出答案的長度有限,幻覺問題也更少;

視覺斷言生成:基于前兩步中獲得的問題以及對應的視覺信息,合成結構化的“視覺斷言”。這些視覺斷言可以看做與原有 MLLM 的回答以及輸入圖片相關的視覺知識庫;

幻覺修正:基于前面得到的,使用大語言模型對 MLLM 的文本輸出進行逐一修正,并提供目標對應的檢測框信息作為視覺檢驗的參照。

wKgZomU_HpCAWuRJAAAuhh9-KLM103.png ?

實驗效果

實驗選取了幾個典型的 MLLM 作為基線,包括:LLaVA,mPLUG-Owl,Otter,MiniGPT-4 論文中首先測試了 Woodpecker 在面對目標幻覺時的修正能力,在 POPE 驗證集的實驗結果如下表所示:

wKgZomU_HpCAYpNeAAUJbot3fhA482.png

結果表明在不同的 MLLM 上應用 Woodpecker 修正后,均有不同程度的提升。在隨機設定下,Woodpecker 給 MiniGPT-4和 mPLUG-Owl 和在準確率指標上分別帶來了 30.66% 和 24.33% 的提升。

此外,研究者還應用更全面的驗證集 MME,進一步測試 Woodpecker 在面對屬性幻覺時的修正能力,結果如下表所示:

wKgZomU_HpCAZZxiAAVN85YCstY979.png

從表中可見 Woodpecker 不僅在應對目標幻覺時有效,在修正顏色等屬性幻覺時也具有出色的表現(xiàn)。LLaVA 的顏色得分從 78.33 分大幅提升到 155 分!經(jīng)過 Woodpecker 修正后,四個基線模型在四個測試子集上的總分均超過 500 分,在總體感知能力上獲得了顯著提升。

為了更直接地衡量修正表現(xiàn),更直接的方式是使用開放評測。不同于以往將圖片轉譯后送入純文本 GPT-4 的做法,文章利用 OpenAI 最近開放的視覺接口,提出使用 GPT-4 (Vision) 對修正前后的圖片描述直接對下列兩個維度進行打分:
  • 準確度:模型的答復相對于圖片內容是否準確
  • 詳細程度:模型答復的細節(jié)豐富度

在該實驗條件下,實驗結果如下表所示:

wKgZomU_HpCANOUaAAMOsiQfU-E600.png

結果表明經(jīng)過 Woodpecker 修正后圖片描述的準確性有一定的提升,這說明該框架可以有效修正描述中幻視的部分。另一方面,Woodpecker 修正后引入的定位信息豐富了文本描述,提供了進一步的位置信息,從而提升了細節(jié)豐富度。GPT-4V 輔助的評測樣例如下圖所示:

wKgaomVQmY2ABM_cAAS4Bjh-SKE689.png

·


原文標題:幻覺降低30%!首個多模態(tài)大模型幻覺修正工作Woodpecker

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術研究所】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:幻覺降低30%!首個多模態(tài)大模型幻覺修正工作Woodpecker

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態(tài)模型

    熟悉愛芯通元NPU的網(wǎng)友很清楚,從去年開始我們在端側模態(tài)模型適配上一直處于主動緊跟的節(jié)奏。先后適配了國內最早開源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?884次閱讀
    愛芯通元NPU適配Qwen2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    利用騰訊ima收藏公眾號推文構建個人知識庫,拒絕AI幻覺

    專業(yè)領域,使用AI的局限在哪里?2023年ChatGPT橫空出世之際,趙工曾就SiCMOSFET的短路問題和ChatGPT掰頭過,圍觀人達6000,當時ChatGPT表現(xiàn)不盡如人意,詳見一步步糾正
    的頭像 發(fā)表于 03-19 18:32 ?381次閱讀
    利用騰訊ima收藏公眾號推文構建個人知識庫,拒絕AI<b class='flag-5'>幻覺</b>

    百度發(fā)布文心大模型4.5和文心大模型X1

    文心大模型4.5是百度自主研發(fā)的新一代原生模態(tài)基礎大模型,通過多個模態(tài)聯(lián)合建模實現(xiàn)協(xié)同優(yōu)化,
    的頭像 發(fā)表于 03-18 16:29 ?317次閱讀

    海康威視發(fā)布模態(tài)模型文搜存儲系列產(chǎn)品

    模態(tài)模型為安防行業(yè)帶來重大技術革新,基于觀瀾大模型技術體系,??低晫⒋髤?shù)量、大樣本量的圖文模態(tài)
    的頭像 發(fā)表于 02-18 10:33 ?426次閱讀

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+第一章初體驗

    3降低幻覺風險:通過引入權威數(shù)據(jù)源(如學術論文、企業(yè)文檔),RAG為生成過程提供“事實錨點”,減少模型虛構內容的可能性。 4輕量化部署:開發(fā)者無需頻繁微調大模型,僅需優(yōu)化檢索模塊即可
    發(fā)表于 02-07 10:42

    商湯日日新模態(tài)模型權威評測第一

    剛剛,商湯科技日日新SenseNova模態(tài)模型,在權威綜合評測權威平臺OpenCompass的模態(tài)評測中取得榜單第一。
    的頭像 發(fā)表于 12-20 10:39 ?691次閱讀

    一文理解模態(tài)大語言模型——下

    /understanding-multimodal-llms ? 《一文理解模態(tài)大語言模型 - 上》介紹了什么是模態(tài)大語言
    的頭像 發(fā)表于 12-03 15:18 ?452次閱讀
    一文理解<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語言<b class='flag-5'>模型</b>——下

    李彥宏:大模型行業(yè)消除幻覺,iRAG技術引領文生圖新紀元

    在近日舉辦的百度世界大會上,百度創(chuàng)始人李彥宏分享了關于大模型行業(yè)的最新觀察。他指出,過去24個月里,大模型行業(yè)經(jīng)歷了顯著的變化,其中最引人注目的是大模型已基本消除了幻覺現(xiàn)象。這一進步標
    的頭像 發(fā)表于 11-14 11:39 ?531次閱讀

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進行融合,通過學習不同模態(tài)之間的關聯(lián),實現(xiàn)更加智能化的信息處理。簡單來說,
    的頭像 發(fā)表于 10-18 09:39 ?907次閱讀

    云知聲推出山海模態(tài)模型

    在人工智能技術的浩瀚星海中,模態(tài)交互技術正成為引領未來的新航標。繼OpenAI的GPT-4o掀起滔天巨浪后,云知聲以創(chuàng)新之姿,推出了其匠心獨運的山海模態(tài)
    的頭像 發(fā)表于 08-27 15:20 ?533次閱讀

    TaD+RAG-緩解大模型幻覺”的組合新療法

    TaD:任務感知解碼技術(Task-aware Decoding,簡稱TaD),京東聯(lián)合清華大學針對大語言模型幻覺問題提出的一項技術,成果收錄于IJCAI2024。 RAG:檢索增強生成技術
    的頭像 發(fā)表于 07-16 15:01 ?2539次閱讀
    TaD+RAG-緩解大<b class='flag-5'>模型</b>“<b class='flag-5'>幻覺</b>”的組合新療法

    阿里達摩院提出“知識鏈”框架,降低模型幻覺

    近日,阿里巴巴達摩院(湖畔實驗室)攜手新加坡南洋理工大學等研究機構,共同推出了大模型知識鏈(CoK)框架。該框架不僅可實時檢索異構知識源,還能逐步糾正推理錯誤,有效提高了大模型在回答知識型問題時的準確率,并顯著降低了所謂的“
    的頭像 發(fā)表于 05-10 11:46 ?866次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    幻覺”。此外,大語言模型僅限于生成文字,無法獨立調用API以滿足多樣化需求。例如,當詢問“查詢今天的天氣”時,它會拒絕請求,缺乏根據(jù)環(huán)境反饋調整行為的能力。動態(tài)調整行為及克服“幻覺”現(xiàn)象是大語言
    發(fā)表于 05-07 17:21

    商湯科技與海通證券攜手發(fā)布金融行業(yè)首個模態(tài)全棧式大模型

    商湯科技與海通證券聯(lián)合研發(fā)并發(fā)布了金融行業(yè)內首個面向業(yè)務場景的模態(tài)全棧式大模型。雙方計劃將這一先進技術應用于智能問答、合規(guī)風控、代碼輔助
    的頭像 發(fā)表于 05-06 10:16 ?607次閱讀

    人大系初創(chuàng)公司智子引擎發(fā)布全新模態(tài)模型Awaker 1.0

    人大系初創(chuàng)公司智子引擎近日震撼發(fā)布了新一代模態(tài)模型Awaker 1.0,這一里程碑式的成果標志著公司在通用人工智能(AGI)領域取得了重要突破。與前代ChatImg序列模型相比,A
    的頭像 發(fā)表于 05-06 09:59 ?793次閱讀