一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

FastSAM模型可實(shí)現(xiàn)25FPS的實(shí)時(shí)推理

OpenCV學(xué)堂 ? 來(lái)源:OpenCV學(xué)堂 ? 2023-07-03 17:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

比Meta的「分割一切模型」(SAM)更快的圖像分割工具,來(lái)了!

最近中科院團(tuán)隊(duì)開源了FastSAM模型,能以50倍的速度達(dá)到與原始SAM相近的效果,并實(shí)現(xiàn)25FPS的實(shí)時(shí)推理。

該成果在Github已經(jīng)獲得2.4K+次星標(biāo),在Twitter、PaperswithCode等平臺(tái)也受到了廣泛關(guān)注。

df2d47bc-1756-11ee-962d-dac502259ad0.png

相關(guān)論文預(yù)印本現(xiàn)已發(fā)表。

以下內(nèi)容由投稿者提供

視覺基礎(chǔ)模型 SAM[1]在許多計(jì)算機(jī)視覺任務(wù)中產(chǎn)?了重?影響。它已經(jīng)成為圖像分割、圖像描述和圖像編輯等任務(wù)的基礎(chǔ)。

然?,其巨?的計(jì)算成本阻礙了它在實(shí)際場(chǎng)景中的?泛應(yīng)?。

最近,中科院?動(dòng)化所提出并開源了?種加速替代?案 FastSAM。

通過將分割?切任務(wù)重新劃分為全實(shí)例分割和提?指導(dǎo)選擇兩個(gè)?任務(wù),?帶實(shí)例分割分?的常規(guī) CNN 檢測(cè)器以?出50倍的運(yùn)?速度實(shí)現(xiàn)了與SAM?法相當(dāng)?shù)男阅?,?個(gè)實(shí)時(shí)分割?切的基礎(chǔ)模型。

df4ab45a-1756-11ee-962d-dac502259ad0.png

意義與動(dòng)機(jī)

SAM 的出現(xiàn)帶動(dòng)了 “分割?切”(Segment Anything)任務(wù)的發(fā)展。這?任務(wù)由于其泛化性和可擴(kuò)展性,有很?可能成為未來(lái)?泛視覺任務(wù)的基礎(chǔ)。

FastSAM 為該任務(wù)提供了?套實(shí)時(shí)解決?案,進(jìn)?步推動(dòng)了分割?切模型的實(shí)際應(yīng)?和發(fā)展。

本?將“分割?切”任務(wù)解耦為全實(shí)例分割和提?引導(dǎo)選擇兩階段,通過引???先驗(yàn)結(jié)構(gòu),在提速 50 倍的情況下實(shí)現(xiàn)了與 SAM 相近的表現(xiàn)。

FastSAM 的優(yōu)秀表現(xiàn)為視覺任務(wù)的架構(gòu)選擇提供了新的視角——對(duì)于特定任務(wù),專用模型結(jié)構(gòu)或許在計(jì)算效率和精確度上仍具有優(yōu)勢(shì)。

從模型壓縮的?度看,F(xiàn)astSAM 也證明了基于大模型產(chǎn)生高質(zhì)量數(shù)據(jù),通過引???先驗(yàn)結(jié)構(gòu)大幅降低計(jì)算復(fù)雜度的路徑的可?性。

示例

Web DEMO

在 HuggingFace 的 Space 中,你可以快速體驗(yàn) FastSAM 的分割效果。

你可以上傳一張自定義的圖片,選擇模式并設(shè)置參數(shù),點(diǎn)擊分割按鈕,就可以得到一個(gè)滿意的分割結(jié)果。

現(xiàn)在支持一切模式和點(diǎn)模式的交互,其他模式將在未來(lái)嘗試支持。在 Replicate 上已支持所有模式的在線體驗(yàn)。

df7845aa-1756-11ee-962d-dac502259ad0.jpg

df959a24-1756-11ee-962d-dac502259ad0.jpg

多種交互?式

FastSAM目前共支持三種交互方式。

dfa20b42-1756-11ee-962d-dac502259ad0.png

多點(diǎn)交互模式

FastSAM ?持多個(gè)帶有前景/背景標(biāo)簽的點(diǎn)交互模式,可以很好地適應(yīng)不同場(chǎng)景的應(yīng)?需求。

以缺陷檢測(cè)場(chǎng)景為例,只需對(duì)缺陷部位添加前景點(diǎn),對(duì)正常藥丸部分添加背景點(diǎn),即可準(zhǔn)確地檢測(cè)出物體缺陷。

dfcbebce-1756-11ee-962d-dac502259ad0.png

框交互模式

FastSAM 也?持框交互模式。也以缺陷檢測(cè)為例,只需對(duì)缺陷?致位置進(jìn)?框選,即可準(zhǔn)確檢測(cè)出物體缺陷。

dff718bc-1756-11ee-962d-dac502259ad0.png

?本交互模式

FastSAM 也?持并開源了?本交互模式。通過不同的?本提示,F(xiàn)astSAM可以準(zhǔn)確分割出不同顏?的?狗。

e0340ec0-1756-11ee-962d-dac502259ad0.png

工作原理

如下圖所示,F(xiàn)astSAM 的網(wǎng)絡(luò)架構(gòu)可分為兩個(gè)階段:全實(shí)例分割和提示引導(dǎo)選擇。

e061fa24-1756-11ee-962d-dac502259ad0.png

在全實(shí)例分割階段,F(xiàn)astSAM 使用卷積神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)圖像中的所有對(duì)象或區(qū)域進(jìn)行劃分。

在提示引導(dǎo)選擇階段,它采用包括點(diǎn)提示、框提示和文本提示的各種提示來(lái)選出關(guān)注對(duì)象。

與基于Transformer的方法不同,F(xiàn)astSAM融合了與視覺分割任務(wù)緊密相關(guān)的先驗(yàn)知識(shí),例如局部連接和對(duì)象分配策略。這使得它以更低地參數(shù)量和計(jì)算量下更快地收斂。

定性與定量分析

測(cè)試結(jié)果表明,F(xiàn)astSAM各方面的表現(xiàn)完全不輸于Meta的原始版本。

速度

從表中可以看出,F(xiàn)astSAM 取得了遠(yuǎn)超 SAM 的速度表現(xiàn),在「分割?切」模式下,SAM的速度會(huì)受到均勻點(diǎn)提?數(shù)量的影響,? FastSAM 由于結(jié)構(gòu)的特點(diǎn),運(yùn)?時(shí)間不隨點(diǎn)提?數(shù)量的增加?增加,這使得它成為「分割?切」模式的更好選擇。

e0885caa-1756-11ee-962d-dac502259ad0.png

同時(shí),由于 FastSAM 在結(jié)構(gòu)設(shè)計(jì)中利?了?的先驗(yàn)知識(shí),使得它在實(shí)時(shí)推理的同時(shí)也具備了與 SAM 相當(dāng)?shù)男阅?/strong>。

邊緣檢測(cè)

下圖展?了具有代表性的邊緣檢測(cè)結(jié)果。經(jīng)過定性觀察可以看出,盡管FastSAM的參數(shù)明顯較少(只有68M),但它也能產(chǎn)?很?質(zhì)量的邊緣檢測(cè)結(jié)果

e094daa2-1756-11ee-962d-dac502259ad0.png

從下表可以看出,F(xiàn)astSAM 取得了與 SAM 類似的性能。與 Ground Truth 相?,F(xiàn)astSAM和 SAM 都傾向于預(yù)測(cè)更多的邊緣,這種偏差在表中得到了定量的反映。

e0c0d42c-1756-11ee-962d-dac502259ad0.png

物體候選

從下表可以看出,F(xiàn)astSAM 在 bbox AR@1000 的表現(xiàn)上超過了計(jì)算量最?的 SAM 模型(SAM-H E64),僅次于在 LVIS 數(shù)據(jù)集上監(jiān)督訓(xùn)練的 ViTDet-H[2]。

e0e144d2-1756-11ee-962d-dac502259ad0.png

可視化結(jié)果

SA-1B 分割結(jié)果:下圖展?了 FastSAM 在 SA-1B 數(shù)據(jù)集上不同場(chǎng)景和掩碼數(shù)量時(shí)的分割結(jié)果。

下游應(yīng)?對(duì)?:下?三張圖對(duì)?了 FastSAM 和 SAM 在異常檢測(cè)、顯著物體分割和建筑物提取三個(gè)下游任務(wù)的效果,F(xiàn)astSAM 在不同模式下均取得了和 SAM 相當(dāng)?shù)谋憩F(xiàn)。

e1392d28-1756-11ee-962d-dac502259ad0.png

e1572968-1756-11ee-962d-dac502259ad0.png

e164b290-1756-11ee-962d-dac502259ad0.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50445
  • Meta
    +關(guān)注

    關(guān)注

    0

    文章

    303

    瀏覽量

    11871
  • SAM
    SAM
    +關(guān)注

    關(guān)注

    0

    文章

    115

    瀏覽量

    33947

原文標(biāo)題:FastSAM模型來(lái)了,比SAM原版提速50倍

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO C++ API 部署 FastSAM 模型,以實(shí)現(xiàn)快速高效的語(yǔ)義分割。在前文中我們發(fā)表了《基于 OpenVINO Python API 部署
    的頭像 發(fā)表于 11-17 09:53 ?1376次閱讀
    如何使用OpenVINO C++ API部署<b class='flag-5'>FastSAM</b><b class='flag-5'>模型</b>

    在Windows上Y8的流媒體FPS低于Y12是什么原因造成的?

    我正在嘗試在 CX3 中傳輸支持 Y8 和 Y12 格式的單色相機(jī)。 我想要以 30FPS 的速度播放 4k 視頻。 我可以在 Linux 和 Windows 上獲得 Y12 25FPS,且不
    發(fā)表于 05-07 08:20

    模型推理顯存和計(jì)算量估計(jì)方法研究

    過程中需要占用大量顯存,導(dǎo)致推理速度變慢,甚至無(wú)法進(jìn)行。 計(jì)算量過大:大模型的計(jì)算量較大,導(dǎo)致推理速度慢,難以滿足實(shí)時(shí)性要求。 為了解決這些問題,本文將針對(duì)大
    發(fā)表于 07-03 19:43

    請(qǐng)問dm8147是否可以使用兩路BT1120傳輸一路sensor高分辨率數(shù)據(jù)?

    162MPix/s,實(shí)測(cè)約500W像素25fps。 如果要實(shí)時(shí)采集更大分辨率圖像,如600w 25fps或800w 25fps,請(qǐng)問是否可以使用兩路BT1120采集,進(jìn)入dm8147后
    發(fā)表于 05-28 12:49

    dm8168 encode fps error

    dvi過來(lái)的視頻,采集60fps,nsf后設(shè)置輸出幀率25fps,編碼幀率設(shè)置為25fps,用視頻軟件看記錄的h264碼流,他的i幀不對(duì),有時(shí)25幀一個(gè),有時(shí)20幀,有時(shí)兩個(gè)i幀挨著來(lái)
    發(fā)表于 06-21 00:09

    HiSpark_IPC_DIY攝像頭開發(fā)套件介紹

    HiSpark_IPC_DIY攝像頭開發(fā)套件采用海思 3518EV300 系列 AI DSP,F(xiàn)23 1/2.9 2MP 高清圖像傳感器,1920*1080 分辨率/25fps實(shí)時(shí)高清監(jiān)控。支持標(biāo)準(zhǔn) UVC/UVA 協(xié)議做 U
    發(fā)表于 09-10 14:20

    用tflite接口調(diào)用tensorflow模型進(jìn)行推理

    摘要本文為系列博客tensorflow模型部署系列的一部分,用于實(shí)現(xiàn)通用模型的部署。本文主要實(shí)現(xiàn)用tflite接口調(diào)用tensorflow模型
    發(fā)表于 12-22 06:51

    請(qǐng)問imx6dl做編碼輸出1080p圖像能達(dá)到25fps嗎?

    想用IMX6DL做攝像頭硬件編碼,發(fā)現(xiàn)1080P最大只能到7.5fps。咨詢一下imx6dl做編碼輸出1080p圖像能達(dá)到25fps嗎另 720P可達(dá)到25fps
    發(fā)表于 01-11 06:58

    壓縮模型會(huì)加速推理嗎?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 將簡(jiǎn)單的 CNN 導(dǎo)入到 STM32L462RCT我發(fā)現(xiàn)壓縮模型對(duì)推理時(shí)間沒有影響。aiRun 程序在 8
    發(fā)表于 01-29 06:24

    求助,為什么將不同的權(quán)重應(yīng)用于模型會(huì)影響推理性能?

    生成兩個(gè) IR文件(相同的 .xml 文件,但不同的 .bin 文件) 具有不同重量的類似模型,以不同的 fps (27fps 和 6fps) 運(yùn)行 更多樣化的權(quán)重是否會(huì)影響 Myr
    發(fā)表于 08-15 07:00

    AscendCL快速入門——模型推理篇(上)

    一、概述本文介紹了AscendCL模型推理相關(guān)知識(shí),介紹了AscendCL接口加載離線模型,為離線模型準(zhǔn)備數(shù)據(jù)結(jié)構(gòu)以及調(diào)用離線模型進(jìn)行
    發(fā)表于 08-24 11:04

    使用rk3588多npu推理模型,模型推理時(shí)間還增加了,這怎么解釋

    使用rk3588多npu推理模型,模型推理時(shí)間還增加了,這怎么解釋
    發(fā)表于 11-05 18:22

    HarmonyOS:使用MindSpore Lite引擎進(jìn)行模型推理

    場(chǎng)景介紹 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件設(shè)備 AI 模型推理的功能,目前已經(jīng)在圖像分類、目標(biāo)識(shí)別、人臉識(shí)別、文字識(shí)別等應(yīng)用中廣泛使用。 本文介紹
    發(fā)表于 12-14 11:41

    DeepStream如何實(shí)現(xiàn)“組合信息”

    前面已經(jīng)介紹過關(guān)于 DeepStream 各種輸入源的使用方式,而且 Jetson Nano 2GB 上開啟 4 路輸入(兩個(gè)攝像頭+兩個(gè)視頻文件),都能得到 25FPS 以上的實(shí)時(shí)性能,但畢竟
    的頭像 發(fā)表于 08-04 09:41 ?1720次閱讀

    如何使用OpenVINO Python API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO Python API 部署 FastSAM 模型,以實(shí)現(xiàn)快速高效的語(yǔ)義分割。
    的頭像 發(fā)表于 10-27 11:04 ?1148次閱讀