一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

移動端人像分割開發(fā)

張康康 ? 2018-12-21 14:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者 | Video++極鏈科技AI實驗室謝錦濱

整理 | 包包

個人對移動端神經(jīng)網(wǎng)絡(luò)開發(fā)一直饒有興致。去年騰訊開源了NCNN框架之后,一直都在關(guān)注。近期嘗試將分割網(wǎng)絡(luò)移植到NCNN,能夠在手機(jī)端實現(xiàn)一些有趣的應(yīng)用,本文就幾個技術(shù)話題作相關(guān)介紹。

神經(jīng)網(wǎng)絡(luò)選擇

目前做segmentation常用的一些神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)有如下幾個可以選擇:

  • MaskRCNN

  • FCN

  • UNET

  • SegNet

  • Tiramisu

在移動端做人像分割有兩大優(yōu)勢,首先是隱私,其次是可以做到實時,能夠創(chuàng)造更多玩法。因為UNET模型比較簡單,干脆就從這個入手。下面是UNET網(wǎng)絡(luò)結(jié)構(gòu):


首先我采用了基于keras的版本: https://github.com/TianzhongSong/Person-Segmentation-Keras,訓(xùn)了一個基本模型,大小為39M, iphone X上15秒處理一幀。明顯這個速度太慢,需要進(jìn)行改造。

移動端Inference框架

經(jīng)過調(diào)研,粗略比較了幾個神經(jīng)網(wǎng)絡(luò)框架:

b8e564fcbf56462381f0a476d1354f71


其中使用難易程度,主要跟我個人習(xí)慣有關(guān)。NCNN框架比較好,代碼不多,而且兼容iOS和安卓(臺式機(jī)以及嵌入式環(huán)境同樣支持),同時底層計算采用匯編做了優(yōu)化。NCNN只實現(xiàn)神經(jīng)網(wǎng)絡(luò)的forward部分,沒有反向傳播,所以訓(xùn)練仍舊依賴其他開源框架,現(xiàn)在幾大框架都遵守ONNX協(xié)議,理論上各種框架模型之間互相轉(zhuǎn)換并不存在什么問題,工具也都是開源的。

不過keras沒辦法直接轉(zhuǎn)成ncnn模型,研究過通過onnx模型做中間跳板,采用了一些開源的轉(zhuǎn)換工具,也是一堆問題。NCNN支持幾個神經(jīng)網(wǎng)絡(luò)訓(xùn)練框架:caffe/mxnet/pytorch,在ncnn的github有一篇issue里nihui推薦采用MXNET,因此MXNET也成為了我的首選。其他框架往NCNN轉(zhuǎn)換工具:

2b40104f5a4a45379aba0c90bf743fad


NCNN轉(zhuǎn)換Tensorflow模型有問題; Caffe沒有Pytorch和MXNET好用; 最終在MXNet和Pytorch之間選擇了MXNet。

人像數(shù)據(jù)集

  • https://github.com/lemondan/HumanParsing-Dataset

  • https://github.com/ZhaoJ9014/Multi-Human-Parsing_MHP

  • COCO人像數(shù)據(jù)集 – 加入后效果質(zhì)的飛躍

  • ADE20K

網(wǎng)上找了上面幾個數(shù)據(jù)集,抽取出人像部分,采用基本的flip/crop/rotate操作做了擴(kuò)充,得到228423張訓(xùn)練樣本,另外湊了9064張驗證樣本。

模型轉(zhuǎn)換(MXNET->NCNN

MXNET的UNET版本并沒有現(xiàn)成可用的合適版本。參照其他版本的UNET,自己coding完成一個版本。代碼請參考: https://github.com/xuduo35/unet_mxnet2ncnn。

在這個基礎(chǔ)上訓(xùn)練完成,用來測試ncnn轉(zhuǎn)換基本可用。這里提一下轉(zhuǎn)換過程遇到的一些問題和解決方案。

一個是調(diào)用ncnn extract函數(shù)會crash,經(jīng)過調(diào)查,發(fā)現(xiàn)mxnet2ncnn工具也有bug,blob個數(shù)算錯,其次是input層one_blob_only標(biāo)志我的理解應(yīng)該是false,不知道什么原因轉(zhuǎn)換過來的模型這邊是true,導(dǎo)致forward_layer函數(shù)里面bottoms變量訪問異常。后來一層層extract出來打印輸出的channel/width/height調(diào)查后又發(fā)現(xiàn),自己代碼里unet.py里的name為pool5寫成了pool4,前面的crash跟這個致命錯誤有關(guān)系也有直接關(guān)聯(lián)。

第二個問題是轉(zhuǎn)成ncnn后的預(yù)測結(jié)果死活不對。只能一層層去檢查,寫了幾個簡單的工具可以打印中間隱藏層的結(jié)果(代碼: https://github.com/xuduo35/unet_mxnet2ncnn/check.py)。在這個基礎(chǔ)之上,發(fā)現(xiàn)是第一次反卷積就出了問題(mxnet神經(jīng)網(wǎng)絡(luò)trans_conv6的輸出)。結(jié)果完全不一致,按個人理解,反卷積算法會出問題的可能性基本為0,所以把mxnet這一層的權(quán)重值打印了出來。再在mxnet2ncnn的代碼里把對應(yīng)的參數(shù)打印,最后發(fā)現(xiàn)是num_group出了問題,簡單處理就是把mxnet2ncnn.cpp里的反卷積num_group固定為1,終于解決問題。得到正確的輸出結(jié)果:


中間還遇到一些ncnn和mxnet之間圖像格式之類的轉(zhuǎn)換問題,特別是浮點數(shù)的處理,就不啰嗦了。另外,調(diào)試過程發(fā)現(xiàn),ncnn的中間層輸出和mxnet的輸出不是完全一致,可能是有一些參數(shù)或者運(yùn)算細(xì)節(jié)問題,不影響最后mask結(jié)果,暫時忽略。

幾個問題

到目前為止還存在幾個問題,1. 模型比較大;2. 單幀處理需要15秒左右的時間(Mac Pro筆記本,ncnn沒有使用openmp的情況);3. 得到的mask結(jié)果不是特別理想。針對這三個問題,對網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行調(diào)整。

1. 模型比較大

采取將網(wǎng)絡(luò)卷積核數(shù)量減少4倍的方式,模型大小下降到2M,粗略用圖片測試,效果也還可以。同時把之前用0值填充圖片的方式,改成用邊界值填充,因為測試的時候發(fā)現(xiàn)之前的方式總在填充的邊界往往會出現(xiàn)檢測錯誤。

2. 單幀處理需要15秒左右的時間

按照第一步處理之后,基本上一張圖片只要1秒鐘就處理完成,。在手機(jī)上由于NCNN做了優(yōu)化,經(jīng)過測試速度是Mac Pro的好幾倍。

3. 得到的mask結(jié)果不是特別理想

在權(quán)衡模型大小和準(zhǔn)確率的基礎(chǔ)上修改UNET網(wǎng)絡(luò)結(jié)構(gòu),具體不再贅述。

最終結(jié)果




聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 移動端
    +關(guān)注

    關(guān)注

    0

    文章

    42

    瀏覽量

    4598
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    迅為RK3576開發(fā)板攝像頭實時推理測試-ppseg?圖像分割

    迅為RK3576開發(fā)板攝像頭實時推理測試-ppseg 圖像分割
    的頭像 發(fā)表于 07-11 14:31 ?342次閱讀
    迅為RK3576<b class='flag-5'>開發(fā)</b>板攝像頭實時推理測試-ppseg?圖像<b class='flag-5'>分割</b>

    【BPI-CanMV-K230D-Zero開發(fā)板體驗】視頻會議場景下的 AI 應(yīng)用(電子云臺 EPTZ、人像居中 / 追蹤、畫中畫)

    縮放模擬機(jī)械云臺,可以使畫面移動/縮放到指定位置上,也可以實現(xiàn)想要的運(yùn)鏡效果。 2、人像居中 / 追蹤 Center Stage   在人物走動時,“人物居中”功能可協(xié)助將人像保持在畫面中間。例如在講臺
    發(fā)表于 07-09 20:56

    HarmonyOS 代碼工坊的指尖開發(fā),讓 APP 開發(fā)所見即所得

    過去,移動 APP 的開發(fā),往往是開發(fā)者在桌面仿真界面上的一場“隔空演練”。 雖然市面上已經(jīng)有一些簡化開發(fā)的工具,可以在
    的頭像 發(fā)表于 06-24 12:08 ?175次閱讀
    HarmonyOS 代碼工坊的指尖<b class='flag-5'>開發(fā)</b>,讓 APP <b class='flag-5'>開發(fā)</b>所見即所得

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    STM32MP257 開發(fā)板基于 DeepLab 模型實現(xiàn)圖像分割的項目設(shè)計,包括 DeepLab 模型介紹、官方Demo例程測試、USB 攝像頭采集畫面的動態(tài)圖像分割、板圖片靜態(tài)
    發(fā)表于 06-21 21:11

    labview使用tcp接收下位機(jī)數(shù)據(jù),最大也就200Hz,如何提高速率到500Hz?

    labview使用tcp采集數(shù)據(jù),使用了生產(chǎn)者-消費(fèi)者模式,將接收功能和存儲、顯示功能分割開來,用隊列在中間傳輸數(shù)據(jù),但是這樣速率也很慢,最多也就達(dá)到200Hz,有沒有別的辦法能夠提升接收速率到500Hz呢?
    發(fā)表于 06-11 16:18

    Arm 公司面向移動市場的 ?Arm Lumex? 深度解讀

    子系統(tǒng)(CSS)? ? 在移動的落地形態(tài),Lumex 旨在通過高度集成化的軟硬件方案,解決移動設(shè)備在 AI 性能、能效比與開發(fā)效率上的挑戰(zhàn)。以下從技術(shù)架構(gòu)、性能突破、應(yīng)用場景、生態(tài)系
    的頭像 發(fā)表于 05-29 09:54 ?1207次閱讀

    MWC2025亮點放送 探索Arm如何塑造移動技術(shù)未來

    ,彰顯了人工智能 (AI) 和移動技術(shù)之間的共生關(guān)系。 ?Arm 計算平臺賦能從云到邊的 AI 體驗。Arm 通過提供的高能效、高性能計算,致力于不斷演進(jìn)的技術(shù)領(lǐng)域,MWC 正
    的頭像 發(fā)表于 03-14 15:40 ?932次閱讀
    MWC2025亮點放送 探索Arm如何塑造<b class='flag-5'>移動</b><b class='flag-5'>端</b>技術(shù)未來

    BEM在移動開發(fā)中的應(yīng)用案例

    BEM(Block Element Modifier)在移動開發(fā)中的應(yīng)用案例非常廣泛,它作為一種前端開發(fā)中的命名規(guī)范和架構(gòu)方法,旨在提高代碼的可維護(hù)性和復(fù)用性。以下是一些具體的應(yīng)用案
    的頭像 發(fā)表于 02-12 17:13 ?477次閱讀

    MediaTek天璣移動平臺賦能騰訊會議側(cè)AI人像分割模型

    MediaTek 與騰訊會議聯(lián)合優(yōu)化的側(cè) NPU 虛擬背景功能,已在搭載 MediaTek 天璣旗艦芯的終端正式上線。作為雙方初次開展的軟硬件生態(tài)合作,此次聯(lián)合優(yōu)化旨在充分利用天璣移動平臺的 AI 算力,為騰訊會議用戶打造更加智能的線上會議體驗。
    的頭像 發(fā)表于 11-29 15:30 ?693次閱讀

    淺談分割接地層的利弊

    如果分割接地層并且線路穿過分割線(如圖1所示)那么電流返回通路在哪里呢?假設(shè)兩個層在某處連接(通過在一個單獨點),則返回電流必在該大型環(huán)路內(nèi)流動。大型環(huán)路內(nèi)的高頻電流產(chǎn)生輻射和高接地電感。大型環(huán)路內(nèi)的低電平模擬電流易受干擾的影響。
    的頭像 發(fā)表于 10-30 10:09 ?607次閱讀
    淺談<b class='flag-5'>分割</b>接地層的利弊

    畫面分割器怎么調(diào)試

    畫面分割器,通常指的是視頻畫面分割器,它是一種可以將一個視頻信號分割成多個小畫面的設(shè)備。這種設(shè)備廣泛應(yīng)用于監(jiān)控系統(tǒng)、視頻會議、多畫面顯示等場景。調(diào)試畫面分割器是一個技術(shù)性很強(qiáng)的工作,需
    的頭像 發(fā)表于 10-17 09:32 ?1083次閱讀

    畫面分割器怎么連接

    畫面分割器,也稱為視頻分割器或多畫面處理器,是一種可以將多個視頻信號源分割成單個畫面或多個畫面顯示在單個監(jiān)視器上的設(shè)備。這種設(shè)備廣泛應(yīng)用于監(jiān)控系統(tǒng)、視頻會議、多媒體展示等領(lǐng)域。 一、畫面分割
    的頭像 發(fā)表于 10-17 09:29 ?991次閱讀

    畫面分割器有幾路主輸出

    畫面分割器,也稱為視頻分割器或多畫面處理器,是一種可以將一個視頻信號分割成多個獨立視頻畫面的設(shè)備。這種設(shè)備廣泛應(yīng)用于監(jiān)控系統(tǒng)、視頻會議、多媒體展示等領(lǐng)域,能夠?qū)⒍鄠€攝像頭的信號整合到一個顯示設(shè)備上
    的頭像 發(fā)表于 10-17 09:24 ?864次閱讀

    畫面分割器的主要功能

    畫面分割器,也稱為視頻分割器或多畫面分割器,是一種用于將多個視頻信號整合到一個顯示器上顯示的設(shè)備。這種設(shè)備廣泛應(yīng)用于監(jiān)控系統(tǒng)、視頻會議、指揮中心等場合,以便于用戶同時監(jiān)控多個視頻源。 畫面分割
    的頭像 發(fā)表于 10-17 09:22 ?1915次閱讀

    芯盾時代設(shè)備指紋技術(shù)如何助力移動安全

    隨著移動互聯(lián)網(wǎng)的快速發(fā)展,移動安全風(fēng)險頻發(fā)。設(shè)備指紋技術(shù)憑借高精度的設(shè)備識別能力,能夠幫助企業(yè)提升移動安全防護(hù)能力,精準(zhǔn)區(qū)分合法與風(fēng)險行
    的頭像 發(fā)表于 08-28 09:41 ?1001次閱讀