一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型案例之奶牛識別模型

柴火創(chuàng)客空間 ? 來源:柴火創(chuàng)客空間 ? 2024-12-04 14:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

2023年以ChatGPT為代表的大語言模型橫空出世,它的出現(xiàn)標志著自然語言處理領(lǐng)域取得了重大突破。它在文本生成、對話系統(tǒng)和語言理解等方面展現(xiàn)出了強大的能力,為人工智能技術(shù)的發(fā)展開辟了新的可能性。同時,人工智能技術(shù)正在進入各種應用領(lǐng)域,在智慧城市、智能制造、智慧醫(yī)療、智慧農(nóng)業(yè)等領(lǐng)域發(fā)揮著重要作用。

柴火創(chuàng)客2024年將依托母公司Seeed矽遞科技在人工智能領(lǐng)域的創(chuàng)新硬件,與全球創(chuàng)客愛好者共建“模型倉”,通過“SenseCraft AI”平臺可以讓使用者快速部署應用體驗人工智能技術(shù)!

本期介紹:模型案例:|奶牛識別模型!

EfficientNet

在開發(fā)以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為核心的機器學習模型時,為了提供準確率最常見的方法是通過深度或?qū)挾龋ㄆ鋵嵰簿褪窃黾觕hannels)來放大卷積網(wǎng),或是使用分辨率更大的圖像進行訓練和評估。雖然這些傳統(tǒng)方法提高準確率的效果不錯,但大多需要繁瑣的手動調(diào)整,還可能無法達到最佳性能。

如何使深度(更多層)、寬度(更多通道)或更高的圖像分辨率達到平衡以獲取更好的性能,EfficientNet很好的解決了這個問題。

4646292c-aca8-11ef-93f3-92fbcf53809c.png

EfficientNet的核心思想是復合縮放,EfficientNet不是單獨增加深度、寬度或分辨率,而是按比例同時擴展這三個方面。

這種平衡的增長使模型能夠在不需要不必要的計算的情況下提高準確性,并在不犧牲有效性的情況下最大限度地提高效率。

46611c96-aca8-11ef-93f3-92fbcf53809c.png

EfficientNet使用復合縮放方法來按比例平衡深度,寬度和分辨率,提高準確性,同時最大限度地減少資源使用。

EfficientNet-B 0是使用神經(jīng)結(jié)構(gòu)搜索(NAS)設(shè)計的,以優(yōu)化高精度和低計算成本。

EfficientNet系列(B 0至B7)從B 0向上擴展,與其他型號相比,使用更少的參數(shù)和FLOP實現(xiàn)一致的性能改進。

只縮放一維(深度、寬度或分辨率)會導致精度遞減; EfficientNet的復合縮放更有效。

在ImageNet上,EfficientNet模型提供了最先進的準確性,計算成本比ResNet和NASNet等替代方案低得多。

EfficientNet也擅長遷移學習。它在CIFAR-10和斯坦福大學汽車等數(shù)據(jù)集上實現(xiàn)了最佳性能,同時使用的參數(shù)減少了9.6倍。

奶牛識別模型

467e3966-aca8-11ef-93f3-92fbcf53809c.png

該 AI 模型利用先進的 Swift yolo 算法,專注于奶牛識別,可以在實時視頻流中準確檢測和標記奶牛。它特別適用于 Seeed Studio Grove Vision AI (V2) 設(shè)備。

應用場景

健康監(jiān)測:通過識別奶牛的行為和生理特征,模型可以識別潛在的健康問題,例如疾病、應激狀態(tài)或營養(yǎng)不足,及時通知農(nóng)場主進行干預。

生產(chǎn)性能分析:識別不同奶牛的乳量、乳質(zhì)和生長狀態(tài),幫助農(nóng)場主分析和優(yōu)化奶牛的生產(chǎn)性能,從而提高產(chǎn)奶效率和經(jīng)濟效益。

繁殖管理:通過跟蹤和分析奶牛的繁殖周期,助農(nóng)戶進行更有效的繁殖管理。

行為識別:監(jiān)控奶牛的飲食、休息和運動行為,判斷其是否處于正常狀態(tài),以便采取措施改善其生活環(huán)境或飼喂方式。

數(shù)據(jù)分析與決策支持:基于大量收集到的數(shù)據(jù),利用識別模型生成分析報告,輔助農(nóng)場管理決策,如選種、飼料配比及環(huán)境調(diào)控等。

智能喂養(yǎng)和自動化管理:識別奶牛個體后,可以實現(xiàn)智能喂養(yǎng)系統(tǒng),根據(jù)每頭奶牛的需求進行精準喂養(yǎng),提高資源利用效率,降低飼養(yǎng)成本。

Grove-VisionAIV2模塊上部署此模型

1、打開SenseCraft AI平臺,如果第一次使用請先注冊一個會員賬號,還可以設(shè)置語言為中文。

平臺地址:https://sensecraft.seeed.cc/ai/#/model

46ac3f8c-aca8-11ef-93f3-92fbcf53809c.png

2、在頂部單擊【預訓練模型】菜單,在公共AI模型列表8中找到【奶牛檢測】模型,單擊此模型圖片,如下圖所示。

46d33218-aca8-11ef-93f3-92fbcf53809c.png

3、進入【奶牛檢測】模型介紹頁面,單擊右側(cè)的“部署模型”按鈕,如下圖所示。

46f552da-aca8-11ef-93f3-92fbcf53809c.png

4、進入部署奶牛檢測模型頁面,按提示步驟先連接攝像頭,再連接設(shè)備到電腦USB接口上,最后單擊【連接設(shè)備】按鈕,如下圖所示。

46fc4f40-aca8-11ef-93f3-92fbcf53809c.png

5、彈出部署模型窗口,單擊“確定”按鈕,如下圖所示。

4708f114-aca8-11ef-93f3-92fbcf53809c.png

6、彈出連接到串行端口窗口,選擇端口號后單擊“連接”按鈕,如下圖所示。

4722c40e-aca8-11ef-93f3-92fbcf53809c.png

7、開始進行模型部署、固件下載、設(shè)備重啟等過程,完成后在預覽中即可看到當前攝像頭視頻內(nèi)容,將攝像頭對準手機中奶牛的圖片查看預測效果,如下圖所示。

473430a4-aca8-11ef-93f3-92fbcf53809c.png

預測效果視頻演示

Grove Al視覺模塊 V2套裝介紹

4752e544-aca8-11ef-93f3-92fbcf53809c.png

Grove Al視覺模塊 V2

475e834a-aca8-11ef-93f3-92fbcf53809c.png

OV5647-62攝像頭

Grove - Vision Al Module V2是一款拇指大小的人工智能視覺模塊, 配備Himax WiseEye2 HX6538處理器, 該處理器采用 ArmCortex-M55雙核架構(gòu)。

它具有標準的CSI接口, 并與樹莓派相機兼容。它有一個內(nèi)置的數(shù)字麥克風和SD卡插槽。它非常適用于各種嵌入式視覺項目。

有了SenseCraft Al算法平臺, 經(jīng)過訓練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測應用的理想選擇。

Arm Ethos-U55 嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)

嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)是一種特別設(shè)計用于執(zhí)行神經(jīng)網(wǎng)絡(luò)計算的高效率處理器。它主要基于數(shù)據(jù)驅(qū)動并行計算架構(gòu),特別擅長處理視頻、圖像等大量的多媒體數(shù)據(jù)。NPU模仿了生物神經(jīng)網(wǎng)絡(luò)的架構(gòu),與CPU、GPU相比,它能夠通過更少的指令(一條或幾條)完成神經(jīng)元的處理,因此在深度學習的處理效率方面具有明顯優(yōu)勢。

它具有標準的CSI接口, 并與樹莓派相機兼容。它有一個內(nèi)置的數(shù)字麥克風和SD卡插槽。它非常適用于各種嵌入式視覺項目。

有了SenseCraft Al算法平臺, 經(jīng)過訓練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測應用的理想選擇。

主要硬件配置

- 板卡基于WiseEye2 HX6538處理器, 采用雙核ARM Cortex-M55架構(gòu) 。

- 配備集成Arm Ethos-U55微神經(jīng)網(wǎng)絡(luò)加速單元, 兼容的樹莓派相機

- 板載PDM麥克風, SD卡插槽, Type-C, Grove接口, 豐富的外設(shè)支持樣機開發(fā) 。

- Seeed Studio XIAO的可擴展性, SenseCraft Al的現(xiàn)成AI模型用于無代碼部署。

- 支持各種有效的模型, 包括MobilenetV1、MobilenetV2、 Eficientnet-Lite、Yolov5和Yolov8。

寫在最后

SenseCraft-AI平臺的模型倉數(shù)量還很少,但是好消息是它支持自定義模型上傳并輸出推理結(jié)果,平臺會逐漸增加模型倉的數(shù)量和分享有愛好者設(shè)計的模型倉原型,敬請關(guān)注!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    34765

    瀏覽量

    276931
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3504

    瀏覽量

    50194
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    369

    瀏覽量

    12253

原文標題:模型案例:| 奶牛識別模型!

文章出處:【微信號:ChaiHuoMakerSpace,微信公眾號:柴火創(chuàng)客空間】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    FA模型卡片和Stage模型卡片切換

    卡片切換 卡片切換主要包含如下三部分: 卡片頁面布局:FA模型卡片和Stage模型卡片的布局都采用類web范式開發(fā)可以直接復用。 卡片配置文件:FA模型的卡片配置在config.json中
    發(fā)表于 06-06 08:10

    FA模型和Stage模型API切換概述

    API切換概述 FA模型和Stage模型由于線程模型和進程模型的差異,部分接口僅在FA模型下才能使用,針對這部分接口在SDK的接口中有FA
    發(fā)表于 06-06 06:29

    從FA模型切換到Stage模型時:module的切換說明

    升級到Stage模型時,Stage模型的name需要和FA模型的package保持一致,否則會導致升級失敗。 name標識HAP的類名。/FA模型中實際未使能,Stage
    發(fā)表于 06-05 08:16

    FA模型訪問Stage模型DataShareExtensionAbility說明

    FA模型訪問Stage模型DataShareExtensionAbility 概述 無論FA模型還是Stage模型,數(shù)據(jù)讀寫功能都包含客戶端和服務端兩部分。 FA
    發(fā)表于 06-04 07:53

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    FA模型與Stage模型介紹 KaihongOS操作系統(tǒng)中,F(xiàn)A模型(Feature Ability)和Stage模型是兩種不同的應用模型
    發(fā)表于 04-24 07:27

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    今天學習<基于大模型的RAG應用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學習領(lǐng)域中的一項關(guān)鍵技術(shù),它指的是在已經(jīng)預訓練好的大型深度學習模型基礎(chǔ)上,使用新的、特定任務相關(guān)的數(shù)據(jù)
    發(fā)表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗】營銷領(lǐng)域大模型的應用

    今天跟隨「大模型啟示錄」這本書,學習在營銷領(lǐng)域應用大模型。 大模型通過分析大量的消費者數(shù)據(jù),包括購買歷史、瀏覽記錄、社交媒體互動等,能夠識別消費者的偏好和行為模式。這種分析能力有助于企
    發(fā)表于 12-24 12:48

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應用大模型

    在客服領(lǐng)域是大模型落地場景中最多的,也是最容易實現(xiàn)的。本身客服領(lǐng)域的特點就是問答形式,大模型接入難度低。今天跟隨《大模型啟示錄 》這本書,學習大模型在客服領(lǐng)域的改變。選擇大
    發(fā)表于 12-17 16:53

    手機識別模型案例

    新的可能性。同時,人工智能技術(shù)正在進入各種應用領(lǐng)域,在智慧城市、智能制造、智慧醫(yī)療、智慧農(nóng)業(yè)等領(lǐng)域發(fā)揮著重要作用。 本期介紹:模型案例:|?手機識別模型! RT-DETR RT-DETR是基于DETR架構(gòu)的端到端對象檢測器,完全
    的頭像 發(fā)表于 11-18 11:01 ?587次閱讀
    手機<b class='flag-5'>識別</b><b class='flag-5'>模型</b>案例

    AI大模型在圖像識別中的優(yōu)勢

    AI大模型在圖像識別中展現(xiàn)出了顯著的優(yōu)勢,這些優(yōu)勢主要源于其強大的計算能力、深度學習算法以及大規(guī)模的數(shù)據(jù)處理能力。以下是對AI大模型在圖像識別中優(yōu)勢的介紹: 一、高效性與準確性 處理速
    的頭像 發(fā)表于 10-23 15:01 ?2360次閱讀

    將amc1200 SPICE模型轉(zhuǎn)成PSPICE模型后 無法在ORCAD16.5中使用,為什么?

    我按TI提供文件 [ 在PSpice中使用Spice模型 ]將amc1200SPICE模型轉(zhuǎn)成PSPICE模型后卻無法在ORCAD16
    發(fā)表于 08-29 07:25

    【《大語言模型應用指南》閱讀體驗】+ 俯瞰全書

    的機會! 本人曾經(jīng)也參與過語音識別產(chǎn)品的開發(fā),包括在線和離線識別,但僅是應用語言模型實現(xiàn)端側(cè)的應用開發(fā),相當于調(diào)用模型的接口函數(shù),實際對模型
    發(fā)表于 07-21 13:35

    人臉識別模型訓練流程

    人臉識別模型訓練流程是計算機視覺領(lǐng)域中的一項重要技術(shù)。本文將詳細介紹人臉識別模型的訓練流程,包括數(shù)據(jù)準備、模型選擇、
    的頭像 發(fā)表于 07-04 09:19 ?1848次閱讀

    人臉識別模型訓練失敗原因有哪些

    人臉識別模型訓練失敗的原因有很多,以下是一些常見的原因及其解決方案: 數(shù)據(jù)集質(zhì)量問題 數(shù)據(jù)集是訓練人臉識別模型的基礎(chǔ)。如果數(shù)據(jù)集存在質(zhì)量問題,將直接影響
    的頭像 發(fā)表于 07-04 09:17 ?1322次閱讀

    人臉識別模型訓練是什么意思

    人臉識別模型訓練是指通過大量的人臉數(shù)據(jù),使用機器學習或深度學習算法,訓練出一個能夠識別和分類人臉的模型。這個模型可以應用于各種場景,如安防監(jiān)
    的頭像 發(fā)表于 07-04 09:16 ?1274次閱讀