一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

被低估的ArmNN(二)用C++部署Mobilenet回歸器

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-10 18:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在專欄之前的文章,我們介紹過ArmNN,詳情可參考被低估的ArmNN(一)如何編譯。這里,我們給大家介紹如何使用ArmNN在Android設(shè)備上進(jìn)行部署,部署的任務(wù)以Mobilenet分類器為例。關(guān)于Mobilenet回歸器的訓(xùn)練,大家可以參考如何DIY輕型的Mobilenet回歸器。我們今天的部署平臺仍然是基于RK3399嵌入式平臺,系統(tǒng)為Android-8.1。
作者:張新棟

我們知道ArmNN是一個(gè)非常高效的Inference框架,300x300的Mobilenet-SSD在depth_multiplier取1.0時(shí)inference最快可達(dá)90ms/幀。今天我們將使用ArmNN框架,用C++在RK-3399-Android-8.1中進(jìn)行Mobilenet回歸任務(wù)的部署。首先我們先進(jìn)行第一步,環(huán)境的配置。

環(huán)境配置

若想使用編譯好的ArmNN進(jìn)行inference,首先我們必須要先加載編譯好的ArmNN庫、頭文件及其他依賴文件。這里我們依舊為大家提供了Android.mk及Application.mk,

LOCAL_PATH := $(call my-dir)

include $(CLEAR_VARS)
LOCAL_MODULE := armnn
LOCAL_SRC_FILES := $(LOCAL_PATH)/../libarmnn.so
LOCAL_EXPORT_C_INCLUDES := $(LOCAL_PATH)/../../include/armnn
LOCAL_SHARED_LIBRARIES := c++_shared
include $(PREBUILT_SHARED_LIBRARY)


include $(CLEAR_VARS)
LOCAL_MODULE := tfliteParser
LOCAL_SRC_FILES := $(LOCAL_PATH)/../libarmnnTfLiteParser.so
LOCAL_EXPORT_C_INCLUDES := $(LOCAL_PATH)/../../include/libarmnnTfLiteParser
LOCAL_SHARED_LIBRARIES := c++_shared
include $(PREBUILT_SHARED_LIBRARY)

include $(CLEAR_VARS)
LOCAL_MODULE := armnnSerializer
LOCAL_SRC_FILES := $(LOCAL_PATH)/../libarmnnSerializer.so
LOCAL_EXPORT_C_INCLUDES := $(LOCAL_PATH)/../../include/armnn/armnnSerializer
LOCAL_SHARED_LIBRARIES := c++_shared
include $(PREBUILT_SHARED_LIBRARY)


include $(CLEAR_VARS)
OpenCV_INSTALL_MODULES := on
OPENCV_LIB_TYPE := STATIC
include /Users/xindongzhang/armnn-tflite/OpenCV-android-sdk/sdk/native/jni/OpenCV.mk
LOCAL_MODULE := face_detector

LOCAL_C_INCLUDES += $(OPENCV_INCLUDE_DIR)
LOCAL_C_INCLUDES += $(LOCAL_PATH)/../../include
LOCAL_C_INCLUDES += $(LOCAL_PATH)/../../../boost_1_64_0/
LOCAL_C_INCLUDES += $(LOCAL_PATH)/../../third-party/stb/
LOCAL_SRC_FILES := /
                face_detector.cpp


LOCAL_LDLIBS := -landroid -llog -ldl -lz 
LOCAL_CFLAGS   := -O2 -fvisibility=hidden -fomit-frame-pointer -fstrict-aliasing   /
                  -ffunction-sections -fdata-sections -ffast-math -ftree-vectorize / 
                  -fPIC -Ofast -ffast-math -w -std=c++14
LOCAL_CPPFLAGS := -O2 -fvisibility=hidden -fvisibility-inlines-hidden -fomit-frame-pointer /
                  -fstrict-aliasing -ffunction-sections -fdata-sections -ffast-math -fPIC  /
                  -Ofast -ffast-math -std=c++14
LOCAL_LDFLAGS  += -Wl,--gc-sections
LOCAL_CFLAGS   += -fopenmp
LOCAL_CPPFLAGS += -fopenmp
LOCAL_LDFLAGS  += -fopenmp
LOCAL_ARM_NEON := true

APP_ALLOW_MISSING_DEPS = true

LOCAL_SHARED_LIBRARIES :=                                   /
                        armnn                               /
            tfliteParser                        /
            armnnSerializer                     /
            android.hardware.neuralnetworks@1.0 /
            android.hidl.allocator@1.0          /
            android.hidl.memory@1.0             /
            libc++_shared

include $(BUILD_EXECUTABLE)

如下為Application.mk文件,

ANDROID_TOOLCHAIN=clang?
APP_ABI := arm64-v8a
APP_CPPFLAGS := -frtti -fexceptions -std=c++14
APP_PLATFORM := android-27
APP_STL := c++_shared

這里需要注意的是Application.mk的APP_STL項(xiàng),由于我們在編譯ArmNN時(shí)使用的STL為c++_shared,所以這里需要使用c++_shared,另外Android.mk文件中鏈接的OpenCV庫也需要使用c++_shared的stl進(jìn)行編譯(官網(wǎng)下載的即c++_shared編譯)。

編寫C++業(yè)務(wù)代碼

在配置好依賴項(xiàng)后,我們開始使用ArmNN提供的C++API進(jìn)行業(yè)務(wù)代碼的書寫。首先第一步我們需要加載模型,ArmNN提供了解析題 ITfLiteParserPtr,我們可以使用其進(jìn)行模型的加載。另外加載好的模型我們需要使用一個(gè)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行存儲,ArmNN提供了INetworkPtr。為了在對應(yīng)的arm嵌入式平臺中高效的執(zhí)行,ArmNN還提供了IOptimizedNetworkPtr來對網(wǎng)絡(luò)的inference進(jìn)行優(yōu)化。更多的細(xì)節(jié)大家可參考如下的業(yè)務(wù)代碼。

armnnTfLiteParser::ITfLiteParserPtr parser = armnnTfLiteParser::ITfLiteParser::Create(); 
armnn::INetworkPtr pose_reg_network{nullptr, [](armnn::INetwork *){}};
armnn::IOptimizedNetworkPtr pose_reg_optNet{nullptr, [](armnn::IOptimizedNetwork *){}};
armnn::InputTensors pose_reg_in_tensors;
armnn::OutputTensors pose_reg_ou_tensors;
armnn::IRuntimePtr runtime{nullptr, [](armnn::IRuntime *){}};
float yaw[1];
float pose_reg_input[64*64*3];


// loading tflite model
std::string pose_reg_modelPath = "/sdcard/Algo/pose.tflite";
pose_reg_network = parser->CreateNetworkFromBinaryFile(pose_reg_modelPath.c_str());

// binding input and output
armnnTfLiteParser::BindingPointInfo pose_reg_input_bind  = 
                              parser->GetNetworkInputBindingInfo(0, "input/ImageInput");
armnnTfLiteParser::BindingPointInfo pose_reg_output_bind = 
                              parser->GetNetworkOutputBindingInfo(0, "yaw/yangle");

// wrapping pose reg input and output
armnn::Tensor pose_reg_input_tensor(pose_reg_input_bind.second, pose_reg_input);
pose_reg_in_tensors.push_back(std::make_pair(pose_reg_input_bind.first, pose_reg_input_tensor));

armnn::Tensor pose_reg_output_tensor(pose_reg_output_bind.second, yaw);
pose_reg_ou_tensors.push_back(std::make_pair(pose_reg_output_bind.first, pose_reg_output_tensor));

// config runtime, fp16 accuracy 
armnn::IRuntime::CreationOptions runtimeOptions;
runtime = armnn::IRuntime::Create(runtimeOptions);
armnn::OptimizerOptions OptimizerOptions;
OptimizerOptions.m_ReduceFp32ToFp16 = true;
this->pose_reg_optNet = 
armnn::Optimize(*pose_reg_network, {armnn::Compute::GpuAcc},runtime->GetDeviceSpec(), OptimizerOptions);
runtime->LoadNetwork(this->pose_reg_identifier, std::move(this->pose_reg_optNet));

// load image
cv::Mat rgb_image = cv::imread("face.jpg", 1);
cv::resize(rgb_image, rgb_image, cv::Size(pose_reg_input_size, pose_reg_input_size));
rgb_image.convertTo(rgb_image, CV_32FC3);
rgb_image = (rgb_image - 127.5f) * 0.017f;

// preprocess image
int TOTAL   = 64 * 64 * 3;
float* data = (float*) rgb_image.data;
for (int i = 0; i < TOTAL; ++i) {
    pose_reg_input[i] = data[i];
}

// invoke graph forward inference
armnn::Status ret = runtime->EnqueueWorkload(
    this->pose_reg_identifier,
    this->pose_reg_in_tensors,
    this->pose_reg_ou_tensors
);
float result = yaw[0] * 180 / 3.14; 

非常簡單易懂的業(yè)務(wù)代碼就可以完成ArmNN的一次inference,注意這里我們使用的是FP16來進(jìn)行inference,相比于FP32,F(xiàn)P16具有更高的加速比,且不會損失很多精度。后續(xù)我們會給出如何使用ArmNN來做INT8的inference例子。

最后

本文我們介紹了如何使用ArmNN來進(jìn)行Mobilenet的inference(其實(shí)很容易就可以改成分類任務(wù)),并使用FP16的精度進(jìn)行inference,該網(wǎng)絡(luò)在RK3399中執(zhí)行效率非常高(約10ms)。若你想在其他設(shè)備中使用FP16,首先你要保證設(shè)備中有GPU,且支持OpenCL。歡迎大家留言討論、關(guān)注專欄,謝謝大家!

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • ARM
    ARM
    +關(guān)注

    關(guān)注

    134

    文章

    9352

    瀏覽量

    377512
  • C++
    C++
    +關(guān)注

    關(guān)注

    22

    文章

    2119

    瀏覽量

    75303
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    K230D部署模型失敗的原因?

    ) 2.按照教程實(shí)現(xiàn)C++版本部署流程,大小核這里就無法推進(jìn)了,無法輸入命令 期待結(jié)果和實(shí)際結(jié)果 (1)期待結(jié)果:不管按照哪個(gè)流程部署完,可以運(yùn)行給的測試用例,看到結(jié)果 (2)實(shí)際結(jié)果:采用
    發(fā)表于 03-11 06:19

    Spire.XLS for C++組件說明

    Spire.XLS for C++ 是一款專業(yè)的 C++ Excel 組件,可以用在各種 C++ 框架和應(yīng)用程序中。Spire.XLS for C++ 提供了一個(gè)對象模型 Excel
    的頭像 發(fā)表于 01-14 09:40 ?622次閱讀
    Spire.XLS for <b class='flag-5'>C++</b>組件說明

    HighTec C/C++編譯套件全面支持芯來RISC-V IP

    德國薩爾布呂肯,2024年12月5日——世界領(lǐng)先的汽車C/C++編譯解決方案提供商HighTec EDV Systeme GmbH宣布全面支持芯來科技的RISC-V IP。HighTec編譯
    的頭像 發(fā)表于 12-23 09:04 ?1245次閱讀
    HighTec <b class='flag-5'>C</b>/<b class='flag-5'>C++</b>編譯<b class='flag-5'>器</b>套件全面支持芯來RISC-V IP

    同樣是函數(shù),在CC++中有什么區(qū)別

    同樣是函數(shù),在 CC++ 中有什么區(qū)別? 第一個(gè)返回值。 C語言的函數(shù)可以不寫返回值類型,編譯會默認(rèn)為返回 int。 但是 C++
    的頭像 發(fā)表于 11-29 10:25 ?909次閱讀

    C7000 C/C++優(yōu)化指南用戶手冊

    電子發(fā)燒友網(wǎng)站提供《C7000 C/C++優(yōu)化指南用戶手冊.pdf》資料免費(fèi)下載
    發(fā)表于 11-09 15:00 ?0次下載
    <b class='flag-5'>C</b>7000 <b class='flag-5'>C</b>/<b class='flag-5'>C++</b>優(yōu)化指南用戶手冊

    MSP430優(yōu)化C/C++編譯v21.6.0.LTS

    電子發(fā)燒友網(wǎng)站提供《MSP430優(yōu)化C/C++編譯v21.6.0.LTS.pdf》資料免費(fèi)下載
    發(fā)表于 11-08 14:57 ?0次下載
    MSP430優(yōu)化<b class='flag-5'>C</b>/<b class='flag-5'>C++</b>編譯<b class='flag-5'>器</b>v21.6.0.LTS

    ARM優(yōu)化C/C++編譯 v20.2.0.LTS

    電子發(fā)燒友網(wǎng)站提供《ARM優(yōu)化C/C++編譯 v20.2.0.LTS.pdf》資料免費(fèi)下載
    發(fā)表于 11-07 10:46 ?0次下載
    ARM優(yōu)化<b class='flag-5'>C</b>/<b class='flag-5'>C++</b>編譯<b class='flag-5'>器</b> v20.2.0.LTS

    百度市值低估?分析師看好其長期發(fā)展?jié)摿?/a>

    近期,盡管微軟和Meta公布了超預(yù)期的財(cái)報(bào),但市場對人工智能領(lǐng)域的熱情似乎有所減退。在此背景下,中概股也普遍走低,百度同樣未能幸免。然而,多位分析師對百度的長期發(fā)展?jié)摿Ρ硎究春?,認(rèn)為其市值低估。
    的頭像 發(fā)表于 11-05 11:16 ?1685次閱讀

    TMS320C6000優(yōu)化C/C++編譯v8.3.x

    電子發(fā)燒友網(wǎng)站提供《TMS320C6000優(yōu)化C/C++編譯v8.3.x.pdf》資料免費(fèi)下載
    發(fā)表于 11-01 09:35 ?1次下載
    TMS320<b class='flag-5'>C</b>6000優(yōu)化<b class='flag-5'>C</b>/<b class='flag-5'>C++</b>編譯<b class='flag-5'>器</b>v8.3.x

    TMS320C28x優(yōu)化C/C++編譯v22.6.0.LTS

    電子發(fā)燒友網(wǎng)站提供《TMS320C28x優(yōu)化C/C++編譯v22.6.0.LTS.pdf》資料免費(fèi)下載
    發(fā)表于 10-31 10:10 ?0次下載
    TMS320<b class='flag-5'>C</b>28x優(yōu)化<b class='flag-5'>C</b>/<b class='flag-5'>C++</b>編譯<b class='flag-5'>器</b>v22.6.0.LTS

    C語言和C++中結(jié)構(gòu)體的區(qū)別

    同樣是結(jié)構(gòu)體,看看在C語言和C++中有什么區(qū)別?
    的頭像 發(fā)表于 10-30 15:11 ?770次閱讀

    C7000優(yōu)化C/C++編譯

    電子發(fā)燒友網(wǎng)站提供《C7000優(yōu)化C/C++編譯.pdf》資料免費(fèi)下載
    發(fā)表于 10-30 09:45 ?0次下載
    <b class='flag-5'>C</b>7000優(yōu)化<b class='flag-5'>C</b>/<b class='flag-5'>C++</b>編譯<b class='flag-5'>器</b>

    OpenVINO2024 C++推理使用技巧

    很多人都使用OpenVINO新版的C++ 或者Python的SDK,都覺得非常好用,OpenVINO2022之后的版本C++ SDK做了大量的優(yōu)化與整理,已經(jīng)是非常貼近開發(fā)的使用習(xí)慣與推理方式。與OpenCV的Mat對象對接方式更是幾乎無縫對接,非常的方便好用。
    的頭像 發(fā)表于 07-26 09:20 ?1569次閱讀

    C++語言基礎(chǔ)知識

    電子發(fā)燒友網(wǎng)站提供《C++語言基礎(chǔ)知識.pdf》資料免費(fèi)下載
    發(fā)表于 07-19 10:58 ?10次下載

    C++中實(shí)現(xiàn)類似instanceof的方法

    C++有多態(tài)與繼承,但是很多人開始學(xué)習(xí)C++,有時(shí)候會面臨一個(gè)常見問題,就是如何向下轉(zhuǎn)型,特別是不知道具體類型的時(shí)候,這個(gè)時(shí)候就希望C++ 可以向Java或者Python中有instanceof這個(gè)
    的頭像 發(fā)表于 07-18 10:16 ?945次閱讀
    <b class='flag-5'>C++</b>中實(shí)現(xiàn)類似instanceof的方法