一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型案例之帳篷檢測模型

柴火創(chuàng)客空間 ? 來源:未知 ? 2024-12-06 11:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

2023年以ChatGPT為代表的大語言模型橫空出世,它的出現(xiàn)標志著自然語言處理領(lǐng)域取得了重大突破。它在文本生成、對話系統(tǒng)和語言理解等方面展現(xiàn)出了強大的能力,為人工智能技術(shù)的發(fā)展開辟了新的可能性。同時,人工智能技術(shù)正在進入各種應(yīng)用領(lǐng)域,在智慧城市、智能制造、智慧醫(yī)療、智慧農(nóng)業(yè)等領(lǐng)域發(fā)揮著重要作用。

柴火創(chuàng)客2024年將依托母公司Seeed矽遞科技在人工智能領(lǐng)域的創(chuàng)新硬件,與全球創(chuàng)客愛好者共建“模型倉”,通過“SenseCraft AI”平臺可以讓使用者快速部署應(yīng)用體驗人工智能技術(shù)!

RT-DETR

目標檢測一直面臨著一個重大挑戰(zhàn)-平衡速度和準確性。像YOLO這樣的傳統(tǒng)模型速度很快,但需要一個名為非極大值抑制(NMS)的后處理步驟,這會減慢檢測速度。NMS過濾重疊的邊界框,但這會引入額外的計算時間,影響整體速度。

RT-DETR 實時端到端目標檢測器,旨在解決現(xiàn)有目標檢測方法在速度和精度上的問題。該方法在保持較高檢測精度的同時,顯著提升了推理速度,為實時目標檢測提供了新的解決方案。

0213c752-b228-11ef-93f3-92fbcf53809c.png

RT-DETR是基于DETR架構(gòu)的端到端對象檢測器,完全消除了對NMS的需求。通過這樣做,RT-DETR顯著減少了之前基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的對象檢測器(如YOLO系列)的延遲。它結(jié)合了強大的主干、混合編碼器和獨特的查詢選擇器,可以快速準確地處理特征。

0238daba-b228-11ef-93f3-92fbcf53809c.png

RT-DETR 架構(gòu)的關(guān)鍵組成

骨干網(wǎng)絡(luò):提取特征,文中實驗了 ResNet 和可縮放的 HgNetV2 兩種骨干網(wǎng)絡(luò),選擇其最后三個階段的特征輸入到編碼器。

高效混合編碼器:通過解耦尺度內(nèi)交互和跨尺度融合來高效處理多尺度特征,它由兩部分組成:

·AIFI(Attention-based Intra-scale Feature Interaction):僅在上使用單尺度 Transformer 編碼器進行層內(nèi)特征交互,以捕獲更豐富的語義概念,降低復雜度并提高整體精度。

·CCFF(CNN-based Cross-scale Feature Fusion):基于跨尺度融合模塊進行優(yōu)化,在融合路徑中插入多個由卷積層組成的融合塊,用于融合相鄰尺度的特征。融合塊包含兩個 1×1 卷積調(diào)整通道數(shù),使用 RepConv 組成的 N 個 RepBlocks 進行特征融合,通過元素相加融合兩條路徑的輸出。

Transformer 解碼器:解碼器通過不確定性最小查詢選擇模塊,從編碼器輸出的特征序列中選擇固定數(shù)量的特征作為初始對象查詢,然后利用輔助預(yù)測頭迭代優(yōu)化對象查詢,生成類別和邊界框。

此外,RT-DETR 支持靈活調(diào)整推理速度,通過調(diào)整解碼器層數(shù)實現(xiàn),而無需重新訓練。同時,它還支持通過控制編碼器和解碼器的參數(shù)來實現(xiàn)模型的縮放。

024a685c-b228-11ef-93f3-92fbcf53809c.png

RT-DETR特點

高效混合編碼器:采用高效混合編碼器,通過解耦尺度內(nèi)交互和跨尺度融合來處理多尺度特征。這種基于 Vision Transformers 的獨特設(shè)計降低了計算成本,允許實時物體檢測。

IoU 感知查詢選擇:利用 IoU 感知查詢選擇改進了對象查詢初始化,使模型能夠?qū)W⒂趫鼍爸凶钕嚓P(guān)的對象,從而提高檢測準確性。

推理速度可調(diào):支持通過使用不同的解碼器層靈活調(diào)整推理速度,無需重新訓練。這種適應(yīng)性有助于在各種實時目標檢測場景中的實際應(yīng)用。

025fb158-b228-11ef-93f3-92fbcf53809c.png

實時性能:實現(xiàn)了實時目標檢測速度,相比許多基于 Transformer 的模型,其推理速度更快。

無錨框設(shè)計:不依賴于錨框,直接預(yù)測物體的邊界框和類別,提高了模型的靈活性和檢測效率,減少了超參數(shù)調(diào)優(yōu)的工作量,提升了小目標檢測的性能。

端到端訓練:采用端到端的訓練方式,不需要像傳統(tǒng)的檢測方法那樣經(jīng)過復雜的后處理步驟,如非極大值抑制(NMS),提高了訓練效率并減少了推理的復雜度。

0272d90e-b228-11ef-93f3-92fbcf53809c.png

高精度:在速度和精度方面均超過了 YOLO 系列等其他實時檢測器,例如 RT-DETR-R50 在 COCO val2017 上達到 53.1% 的 AP 和 108 FPS,RT-DETR-R101 達到 54.3% 的 AP 和 74 FPS。

可擴展性:支持模型的縮放,通過控制編碼器和解碼器的參數(shù),如調(diào)整寬度(嵌入尺寸和通道數(shù))和深度(Transformer 層數(shù)和 RepBlocks),以適應(yīng)不同場景的需求。

高效處理多尺度特征:集成了多尺度特征融合模塊,能夠同時處理大中小不同尺寸的目標,在檢測小目標時表現(xiàn)優(yōu)異。

帳篷檢測模型

027fac74-b228-11ef-93f3-92fbcf53809c.png

該 AI 模型利用先進的 Swift yolo 算法,專注于帳篷識別,可以在實時視頻流中準確檢測和標記帳篷。它特別適用于 Seeed Studio Grove Vision AI (V2) 設(shè)備,提供高兼容性和穩(wěn)定性。

露營場景應(yīng)用

0290f25e-b228-11ef-93f3-92fbcf53809c.png

營地管理與布局優(yōu)化:

- 幫助營地主動監(jiān)控帳篷的分布情況,可以分析不同區(qū)域的帳篷數(shù)量,優(yōu)化露營地的布局,確保合理利用空間,避免擁堵。

安全與防災(zāi):

- 在天氣突變或出現(xiàn)自然災(zāi)害時(如暴風雨、洪水等),可以實時檢測帳篷所在地的環(huán)境變化,警告營地管理者采取相應(yīng)措施,保障露營者的安全。

資源分配與監(jiān)控:

- 管理者可以根據(jù)檢測到的帳篷數(shù)量和分布,合理分配營地的水、電及其他資源,更高效地滿足露營者的需求。

數(shù)據(jù)收集與分析:

- 通過持續(xù)監(jiān)測帳篷的數(shù)量和動態(tài)變化,營地管理者可以收集露營高峰期的數(shù)據(jù),從而為未來的活動策劃和資源配置提供參考。

客戶體驗提升:

- 通過分析帳篷的分布及活動情況,管理者可以為露營者提供個性化的建議,如推薦適合的露營區(qū)域、活動和服務(wù),提升整體體驗。

野生動物監(jiān)測與管理:

- 利用帳篷檢測技術(shù),營地管理人員可以監(jiān)控露營區(qū)域?qū)Ξ數(shù)厣鷳B(tài)環(huán)境的影響,合理安排活動,以保護野生動物棲息環(huán)境。

應(yīng)急響應(yīng):

- 在緊急情況下,例如露營者的失蹤或事故發(fā)生時,模型可以幫助定位帳篷位置,快速調(diào)派救援力量。

智能化露營服務(wù):

- 在自動化和智能化露營平臺中,帳篷檢測模型可以與其他智能設(shè)備和系統(tǒng)集成,為露營者提供實時信息和服務(wù),如天氣預(yù)報、急救指引等。

在Grove-VisionAIV2上部署模型

1、打開SenseCraft AI平臺,如果第一次使用請先注冊一個會員賬號,還可以設(shè)置語言為中文。

平臺地址:https://sensecraft.seeed.cc/ai/#/model

02b842be-b228-11ef-93f3-92fbcf53809c.png

2、在頂部單擊【預(yù)訓練模型】菜單,在公共AI模型列表9中找到【帳篷檢測】模型,單擊此模型圖片,如下圖所示。

02d8a428-b228-11ef-93f3-92fbcf53809c.png

3、進入【帳篷檢測】模型介紹頁面,單擊右側(cè)的“部署模型”按鈕,如下圖所示。

02ef4dc2-b228-11ef-93f3-92fbcf53809c.png

4、進入部署帳篷檢測模型頁面,按提示步驟先連接攝像頭,再連接設(shè)備到電腦USB接口上,最后單擊【連接設(shè)備】按鈕,如下圖所示。

030b6020-b228-11ef-93f3-92fbcf53809c.png

5、彈出部署模型窗口,單擊“確定”按鈕,如下圖所示。

0329ec34-b228-11ef-93f3-92fbcf53809c.png

6、彈出連接到串行端口窗口,選擇端口號后單擊“連接”按鈕,如下圖所示。

0334f5e8-b228-11ef-93f3-92fbcf53809c.png

7、開始進行模型部署、固件下載、設(shè)備重啟等過程,完成后在預(yù)覽中即可看到當前攝像頭視頻內(nèi)容,將攝像頭對準露營中的帳篷圖片查看預(yù)測效果,如下圖所示。

033c72aa-b228-11ef-93f3-92fbcf53809c.png

預(yù)測效果視頻演示

Grove Al視覺模塊 V2套裝介紹

0357d824-b228-11ef-93f3-92fbcf53809c.png

Grove Al視覺模塊 V2

036e9e24-b228-11ef-93f3-92fbcf53809c.png

OV5647-62攝像頭

Grove - Vision Al Module V2是一款拇指大小的人工智能視覺模塊, 配備Himax WiseEye2 HX6538處理器, 該處理器采用 ArmCortex-M55雙核架構(gòu)。

它具有標準的CSI接口, 并與樹莓派相機兼容。它有一個內(nèi)置的數(shù)字麥克風和SD卡插槽。它非常適用于各種嵌入式視覺項目。

有了SenseCraft Al算法平臺, 經(jīng)過訓練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測應(yīng)用的理想選擇。

Arm Ethos-U55 嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)

嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)是一種特別設(shè)計用于執(zhí)行神經(jīng)網(wǎng)絡(luò)計算的高效率處理器。它主要基于數(shù)據(jù)驅(qū)動并行計算架構(gòu),特別擅長處理視頻、圖像等大量的多媒體數(shù)據(jù)。NPU模仿了生物神經(jīng)網(wǎng)絡(luò)的架構(gòu),與CPU、GPU相比,它能夠通過更少的指令(一條或幾條)完成神經(jīng)元的處理,因此在深度學習的處理效率方面具有明顯優(yōu)勢。

它具有標準的CSI接口, 并與樹莓派相機兼容。它有一個內(nèi)置的數(shù)字麥克風和SD卡插槽。它非常適用于各種嵌入式視覺項目。

有了SenseCraft Al算法平臺, 經(jīng)過訓練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測應(yīng)用的理想選擇。

主要硬件配置

- 板卡基于WiseEye2 HX6538處理器, 采用雙核ARM Cortex-M55架構(gòu) 。

- 配備集成Arm Ethos-U55微神經(jīng)網(wǎng)絡(luò)加速單元, 兼容的樹莓派相機

- 板載PDM麥克風, SD卡插槽, Type-C, Grove接口, 豐富的外設(shè)支持樣機開發(fā) 。

- Seeed Studio XIAO的可擴展性, SenseCraft Al的現(xiàn)成AI模型用于無代碼部署。

- 支持各種有效的模型, 包括MobilenetV1、MobilenetV2、 Eficientnet-Lite、Yolov5和Yolov8。

寫在最后

SenseCraft-AI平臺的模型倉數(shù)量還很少,但是好消息是它支持自定義模型上傳并輸出推理結(jié)果,平臺會逐漸增加模型倉的數(shù)量和分享有愛好者設(shè)計的模型倉原型,敬請關(guān)注!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1176

    瀏覽量

    41998
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249581
  • 目標檢測
    +關(guān)注

    關(guān)注

    0

    文章

    225

    瀏覽量

    16021

原文標題:模型案例:| 帳篷檢測模型!

文章出處:【微信號:ChaiHuoMakerSpace,微信公眾號:柴火創(chuàng)客空間】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    請問嘉楠平臺k230訓練的跌倒檢測模型里面的設(shè)置是怎么樣的?

    我想要了解K230所使用的跌倒檢測模型中的設(shè)置,例如人體檢測是如何實現(xiàn)的,在模型檢測中,人體的節(jié)點是多少。或者想請教一下相關(guān)的文檔或者內(nèi)容在
    發(fā)表于 06-23 07:05

    FA模型卡片和Stage模型卡片切換

    卡片切換 卡片切換主要包含如下三部分: 卡片頁面布局:FA模型卡片和Stage模型卡片的布局都采用類web范式開發(fā)可以直接復用。 卡片配置文件:FA模型的卡片配置在config.json中
    發(fā)表于 06-06 08:10

    FA模型和Stage模型API切換概述

    API切換概述 FA模型和Stage模型由于線程模型和進程模型的差異,部分接口僅在FA模型下才能使用,針對這部分接口在SDK的接口中有FA
    發(fā)表于 06-06 06:29

    從FA模型切換到Stage模型時:module的切換說明

    升級到Stage模型時,Stage模型的name需要和FA模型的package保持一致,否則會導致升級失敗。 name標識HAP的類名。/FA模型中實際未使能,Stage
    發(fā)表于 06-05 08:16

    FA模型訪問Stage模型DataShareExtensionAbility說明

    FA模型訪問Stage模型DataShareExtensionAbility 概述 無論FA模型還是Stage模型,數(shù)據(jù)讀寫功能都包含客戶端和服務(wù)端兩部分。 FA
    發(fā)表于 06-04 07:53

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    FA模型與Stage模型介紹 KaihongOS操作系統(tǒng)中,F(xiàn)A模型(Feature Ability)和Stage模型是兩種不同的應(yīng)用模型
    發(fā)表于 04-24 07:27

    如何使用OpenVINO?運行對象檢測模型

    無法確定如何使用OpenVINO?運行對象檢測模型
    發(fā)表于 03-06 07:20

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    今天學習<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學習領(lǐng)域中的一項關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓練好的大型深度學習模型基礎(chǔ)上,使用新的、特定任務(wù)相關(guān)的數(shù)據(jù)
    發(fā)表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗】對大模型更深入的認知

    閱讀《大模型啟示錄》這本書,我得說,它徹底顛覆了我對大模型的理解。作為一個經(jīng)常用KIMI和豆包這類AI工具來完成作業(yè)、整理資料的大學生,我原以為大模型就是這些工具背后的技術(shù)。但這本書讓我意識到
    發(fā)表于 12-20 15:46

    模型案例綿羊檢測模型

    ? 導讀? ? 2023年以ChatGPT為代表的大語言模型橫空出世,它的出現(xiàn)標志著自然語言處理領(lǐng)域取得了重大突破。它在文本生成、對話系統(tǒng)和語言理解等方面展現(xiàn)出了強大的能力,為人工智能技術(shù)的發(fā)展
    的頭像 發(fā)表于 12-20 10:27 ?503次閱讀
    <b class='flag-5'>模型</b>案例<b class='flag-5'>之</b>綿羊<b class='flag-5'>檢測</b><b class='flag-5'>模型</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:目標檢測模型

    以及邊緣計算能力的增強,越來越多的目標檢測應(yīng)用開始直接在靠近數(shù)據(jù)源的邊緣設(shè)備上運行。這不僅減少了數(shù)據(jù)傳輸延遲,保護了用戶隱私,同時也減輕了云端服務(wù)器的壓力。然而,在邊緣端部署高效且準確的目標檢測模型
    發(fā)表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應(yīng)用大模型

    在客服領(lǐng)域是大模型落地場景中最多的,也是最容易實現(xiàn)的。本身客服領(lǐng)域的特點就是問答形式,大模型接入難度低。今天跟隨《大模型啟示錄 》這本書,學習大模型在客服領(lǐng)域的改變。選擇大
    發(fā)表于 12-17 16:53

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    本文通俗簡單地介紹了什么是大模型、大模型是怎么訓練出來的和大模型的作用。 ? 什么是大模型模型,英文名叫Large Model,大型
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么訓練出來的及大<b class='flag-5'>模型</b>作用

    模型動態(tài)測試工具TPT的軟件集成與測試支持#Siumlink模型測試 #TPT

    模型
    北匯信息POLELINK
    發(fā)布于 :2024年11月07日 11:20:29

    將amc1200 SPICE模型轉(zhuǎn)成PSPICE模型后 無法在ORCAD16.5中使用,為什么?

    我按TI提供文件 [ 在PSpice中使用Spice模型 ]將amc1200SPICE模型轉(zhuǎn)成PSPICE模型后卻無法在ORCAD16
    發(fā)表于 08-29 07:25