一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

您好,歡迎來電子發(fā)燒友網(wǎng)! ,新用戶?[免費(fèi)注冊]

您的位置:電子發(fā)燒友網(wǎng)>源碼下載>通訊/手機(jī)編程>

怎樣用蘋果CoreML實現(xiàn)iPhone的目標(biāo)識別

大?。?/span>0.50 MB 人氣: 2017-09-25 需要積分:1

  在WWDC 2017上,蘋果首次公布了機(jī)器學(xué)習(xí)方面的動作。iOS系統(tǒng)早已支持Machine Learning 和 Computer Vision ,但這次蘋果提供了更合理,容易上手的API,讓那些對基礎(chǔ)理論知識一竅不通的門外漢也能玩轉(zhuǎn)高大上的前沿科技。

  這篇文章介紹了通過蘋果最新的API把YOLO模型集成到APP中的兩種方法。此前,AI100(rgznai100)介紹過YOLO這個項目,它是一個用于攝像頭的實時目標(biāo)檢測系統(tǒng),詳情請參閱:《YOLO一眼就能認(rèn)出你:看一個神經(jīng)網(wǎng)絡(luò)如何全視野實時檢測目標(biāo)》

  作者 | Matthijs Hollemans

  編譯 | AI100(rgznai100)

  參與 | thinkdeeper、胡永波

  幾周前,我寫了篇關(guān)于YOLO(一個用于目標(biāo)檢測的神經(jīng)網(wǎng)絡(luò)模型)的教程。并且我使用Metal Performance Shader和我的Forge神經(jīng)網(wǎng)絡(luò)庫,實現(xiàn)了該版本的YOLO(實際上是Tiny YOLO)。

  關(guān)于YOLO的教程

  http://machinethink.net/blog/object-detection-with-yolo/

  Forge神經(jīng)網(wǎng)絡(luò)庫

  https://github.com/hollance/Forge

  此后,蘋果公司宣布了可以在設(shè)備上應(yīng)用機(jī)器學(xué)習(xí)的兩種新技術(shù):Core ML和MPS graph API(Core ML 構(gòu)建于MPS之上,MPS更底層)。在這篇博文中,我們會使用這些新的API來實現(xiàn)Tiny YOLO。

  在設(shè)備上應(yīng)用機(jī)器學(xué)習(xí)的兩種新技術(shù)

  http://machinethink.net/blog/ios-11-machine-learning-for-everyone

  

  快速回顧:YOLO是由9個卷積層和6個最大池化層組成的神經(jīng)網(wǎng)絡(luò),但其最后一層不會像分類器那樣輸出概率分布。相反,最后一層產(chǎn)生13×13×125張量。

  該輸出張量描述了13×13個單元格。每個單元格預(yù)測5個邊界框(每個邊界框由25個數(shù)字描述)。然后,我們使用非最大抑制來找到最佳邊界框。

非常好我支持^.^

(0) 0%

不好我反對

(0) 0%

      發(fā)表評論

      用戶評論
      評價:好評中評差評

      發(fā)表評論,獲取積分! 請遵守相關(guān)規(guī)定!

      ?