一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用NVIDIA遷移學(xué)習(xí)工具箱如何訓(xùn)練二維姿態(tài)估計(jì)模型

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-10 09:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本系列的第一篇文章介紹了在 NVIDIA 遷移學(xué)習(xí)工具箱中使用開源 COCO 數(shù)據(jù)集和 BodyPoseNet 應(yīng)用程序的 如何訓(xùn)練二維姿態(tài)估計(jì)模型 。

在本文中,您將學(xué)習(xí)如何在 NVIDIA 遷移學(xué)習(xí)工具箱中優(yōu)化姿勢估計(jì)模型。它將引導(dǎo)您完成模型修剪和 INT8 量化的步驟,以優(yōu)化用于推理的模型。

模型優(yōu)化和導(dǎo)出

本節(jié)介紹模型優(yōu)化和導(dǎo)出的幾個(gè)主題:

修剪

INT8 量化

提高速度和準(zhǔn)確性的最佳實(shí)踐

修剪

BodyPoseNet 支持模型修剪以刪除不必要的連接,從而將參數(shù)數(shù)量減少一個(gè)數(shù)量級。這將產(chǎn)生一個(gè)優(yōu)化的模型體系結(jié)構(gòu)。

修剪模型

要修剪模型,請使用以下命令:

tlt bpnet prune -m $USER_EXPERIMENT_DIR/models/exp_m1_unpruned/bpnet_model.tlt \
     -o $USER_EXPERIMENT_DIR/models/exp_m1_pruned/bpnet_model.pruned-0.05.tlt \
     -eq union \
     -pth 0.05 \
     -k $KEY 

通常,您只需調(diào)整-pth(閾值)以進(jìn)行精度和模型大小的權(quán)衡。對于一些內(nèi)部研究,我們注意到pth值介于[0 . 05 , 3 . 0]之間是 BodyPoseNet 模型的良好起點(diǎn)。

重新訓(xùn)練修剪模型

在模型被刪減之后,由于一些以前有用的權(quán)值可能已經(jīng)被刪除,因此 MIG 的精度可能會(huì)略有下降。為了重新獲得準(zhǔn)確度,我們建議在相同的數(shù)據(jù)集上重新訓(xùn)練這個(gè)修剪過的模型。您可以按照列車試驗(yàn)配置文件部分中的相同說明進(jìn)行操作?,F(xiàn)在主要的更改是指定pretrained_weights作為修剪模型的路徑,并啟用load_graph。因?yàn)槟P褪怯眉糁Φ哪P蜋?quán)重初始化的,所以模型收斂得更快。

# Retraining using the pruned model as model graph
      tlt bpnet train -e $SPECS_DIR/bpnet_retrain_m1_coco.yaml \
       -r $USER_EXPERIMENT_DIR/models/exp_m1_retrain \
       -k $KEY \
       --gpus $NUM_GPUS 

您可以按照Evaluation模型驗(yàn)證部分中的類似說明來評估和驗(yàn)證修剪后的模型。在用pth 0.05重新訓(xùn)練修剪后的模型之后,您可以觀察到多尺度推理的精度為 56 . 1% 的 AP 。以下是 COCO 驗(yàn)證集的指標(biāo):

Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets= 20 ] = 0.561
        Average Precision (AP) @[ IoU=0.50 | area= all | maxDets= 20 ] = 0.776
        Average Precision (AP) @[ IoU=0.75 | area= all | maxDets= 20 ] = 0.609
        Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets= 20 ] = 0.567
        Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets= 20 ] = 0.556
        ... 

導(dǎo)出. etlt 模型

推理吞吐量和創(chuàng)建有效模型的速度是部署深度學(xué)習(xí)應(yīng)用程序的兩個(gè)關(guān)鍵指標(biāo),因?yàn)樗鼈冎苯佑绊懙缴鲜袝r(shí)間和部署成本。 TLT 包含一個(gè) export 命令,用于導(dǎo)出和準(zhǔn)備 TLT 模型以進(jìn)行部署。

模型將導(dǎo)出為. etlt (加密的 TLT )文件。 TLT CV 推斷可以使用該文件,它解密模型并將其轉(zhuǎn)換為 TensorRT 引擎。導(dǎo)出模型將訓(xùn)練過程與推理分離,并允許轉(zhuǎn)換到 TLT 環(huán)境之外的 TensorRT 引擎 TensorRT 引擎特定于每個(gè)硬件配置,應(yīng)該為每個(gè)獨(dú)特的推理環(huán)境生成。下面的代碼示例顯示了經(jīng)過修剪、重新訓(xùn)練的模型的導(dǎo)出。

tlt bpnet export -m $USER_EXPERIMENT_DIR/models/exp_m1_retrain/bpnet_model.tlt \
           -e $SPECS_DIR/bpnet_retrain_m1_coco.yaml \
           -o $USER_EXPERIMENT_DIR/models/exp_m1_final/bpnet_model.etlt \
           -k $KEY \
           -t tfonnx 

export 命令可以選擇生成校準(zhǔn)緩存,以便以 INT8 精度運(yùn)行推斷。這將在后面的章節(jié)中詳細(xì)描述。

INT8 量化

BodyPoseNet 模型支持 TensorRT 中的 int8 推理模式。為此,首先對模型進(jìn)行校準(zhǔn),以運(yùn)行 8 位推斷。要校準(zhǔn)模型,需要一個(gè)目錄,其中包含用于校準(zhǔn)的一組采樣圖像。

我們提供了一個(gè)助手腳本,可以解析注釋并根據(jù)指定的標(biāo)準(zhǔn)(如圖像中的人數(shù)、每人的關(guān)鍵點(diǎn)數(shù)量等)隨機(jī)抽取所需數(shù)量的圖像。

# Number of calibration samples to use
            export NUM_CALIB_SAMPLES=2000
            
            python3 sample_calibration_images.py \
             -a $LOCAL_EXPERIMENT_DIR/data/annotations/person_keypoints_train2017.json \
             -i $LOCAL_EXPERIMENT_DIR/data/train2017/ \
             -o $LOCAL_EXPERIMENT_DIR/data/calibration_samples/ \
             -n $NUM_CALIB_SAMPLES \
             -pth 1 \
             --randomize 

生成 INT8 校準(zhǔn)緩存和引擎

下面的命令將經(jīng)過修剪、重新訓(xùn)練的模型導(dǎo)出為. etlt 格式,執(zhí)行 INT8 校準(zhǔn),并為當(dāng)前硬件生成 INT8 校準(zhǔn)緩存和 TensorRT 引擎。

# Set dimensions of desired output model for inference/deployment
              export IN_HEIGHT=288
              export IN_WIDTH=384
              export IN_CHANNELS=3
              export INPUT_SHAPE=288x384x3
              # Set input name
              export INPUT_NAME=input_1:0
              
              tlt bpnet export \
               -m $USER_EXPERIMENT_DIR/models/exp_m1_retrain/bpnet_model.tlt \
               -o $USER_EXPERIMENT_DIR/models/exp_m1_final/bpnet_model.etlt \
               -k $KEY \
               -d $IN_HEIGHT,$IN_WIDTH,$IN_CHANNELS \
               -e $SPECS_DIR/bpnet_retrain_m1_coco.yaml \
               -t tfonnx \
               --data_type int8 \
               --engine_file $USER_EXPERIMENT_DIR/models/exp_m1_final/bpnet_model.$IN_HEIGHT.$IN_WIDTH.int8.engine \
               --cal_image_dir $USER_EXPERIMENT_DIR/data/calibration_samples/ \
               --cal_cache_file $USER_EXPERIMENT_DIR/models/exp_m1_final/calibration.$IN_HEIGHT.$IN_WIDTH.bin \
               --cal_data_file $USER_EXPERIMENT_DIR/models/exp_m1_final/coco.$IN_HEIGHT.$IN_WIDTH.tensorfile \
               --batch_size 1 \
               --batches $NUM_CALIB_SAMPLES \
               --max_batch_size 1 \
               --data_format channels_last 

確保 --cal_image_dir 中提到的目錄中至少有( batch_size * batches )個(gè)圖像。要為當(dāng)前硬件生成 F16 引擎,請將 --data_type 指定為 FP16 。有關(guān)此處使用的參數(shù)的更多信息,請參閱 INT8 模型概述 。

評估 TensorRT 發(fā)動(dòng)機(jī)

此評估主要用于對導(dǎo)出的 TRT ( INT8 / FP16 )模型進(jìn)行健全性檢查。這并不能反映模型的真實(shí)準(zhǔn)確性,因?yàn)檫@里的輸入縱橫比可能與驗(yàn)證集中圖像的縱橫比有很大差異。這套設(shè)備有一組不同分辨率的圖像。在這里,您保留嚴(yán)格的輸入分辨率,并填充圖像以重新訓(xùn)練縱橫比。因此,這里的精度 MIG ht 根據(jù)縱橫比和您選擇的網(wǎng)絡(luò)分辨率而變化。

您也可以在嚴(yán)格模式下運(yùn)行 .tlt 模型的評估,以便與 INT8 / FP16 / FP32 模型的精度進(jìn)行比較,以確定精度是否下降。在這一步中,與 .tlt 型號相比, FP16 和 FP32 型號的精度應(yīng)無下降或下降最小。 INT8 模型的精度與 .tlt 模型相似(或在 2-3%AP 范圍內(nèi)可比)。

您可以按照 Evaluation 和 模型驗(yàn)證 部分中的類似說明來評估和驗(yàn)證模型。一個(gè)改變就是你現(xiàn)在使用 $SPECS_DIR/infer_spec_retrained_strict.yaml as inference_spec 和要使用的模型將是經(jīng)過修剪的 TLT 模型、 INT8 引擎或 FP16 引擎。

可部署模型導(dǎo)出

在驗(yàn)證了 INT8 / FP16 / FP32 模型之后,您必須重新導(dǎo)出該模型,以便它可以用于在 TLT-CV 推理等推理平臺上運(yùn)行。您使用的準(zhǔn)則與前幾節(jié)中相同,但必須將 --sdk_compatible_model 標(biāo)志添加到 export 命令中,這將向模型中添加一些不可訓(xùn)練的后期處理層,以實(shí)現(xiàn)與推理管道的兼容性。重用前面步驟中生成的校準(zhǔn)張量文件( cal_data_file )以保持一致,但必須重新生成 cal_cache_file 和 .etlt 模型。

tlt bpnet export
                 -m $USER_EXPERIMENT_DIR/models/exp_m1_retrain/bpnet_model.tlt
                 -o $USER_EXPERIMENT_DIR/models/exp_m1_final/bpnet_model.deploy.etlt
                 -k $KEY
                 -d $IN_HEIGHT,$IN_WIDTH,$IN_CHANNELS
                 -e $SPECS_DIR/bpnet_retrain_m1_coco.txt
                 -t tfonnx
                 --data_type int8
                 --cal_image_dir $USER_EXPERIMENT_DIR/data/calibration_samples/
                 --cal_cache_file $USER_EXPERIMENT_DIR/models/exp_m1_final/calibration.$IN_HEIGHT.$IN_WIDTH.deploy.bin
                 --cal_data_file $USER_EXPERIMENT_DIR/models/exp_m1_final/coco.$IN_HEIGHT.$IN_WIDTH.tensorfile
                 --batch_size 1
                 --batches $NUM_CALIB_SAMPLES
                 --max_batch_size 1
                 --data_format channels_last
                 --engine_file $USER_EXPERIMENT_DIR/models/exp_m1_final/bpnet_model.$IN_HEIGHT.$IN_WIDTH.int8.deploy.engine
                 --sdk_compatible_model 

提高速度和準(zhǔn)確性的最佳實(shí)踐

在本節(jié)中,我們將介紹一些用于提高模型性能和準(zhǔn)確性的最佳實(shí)踐。

部署的網(wǎng)絡(luò)輸入分辨率

模型的網(wǎng)絡(luò)輸入分辨率是決定自底向上方法精度的主要因素之一。自下而上的方法必須一次提供整個(gè)圖像,從而使每個(gè)人的分辨率更小。因此,更高的輸入分辨率產(chǎn)生更好的精度,特別是在中小型人員的圖像比例方面。但是,隨著輸入分辨率的提高, CNN 的運(yùn)行時(shí)間也會(huì)提高。因此,準(zhǔn)確度/運(yùn)行時(shí)權(quán)衡應(yīng)該由目標(biāo)用例的準(zhǔn)確度和運(yùn)行時(shí)需求來決定。

如果您的應(yīng)用程序涉及到一個(gè)或多個(gè)靠近相機(jī)的人的姿勢估計(jì),使得該人的比例相對較大,那么您可以使用較小的網(wǎng)絡(luò)輸入高度。如果你的目標(biāo)是為相對規(guī)模較小的人使用網(wǎng)絡(luò),比如擁擠的場景,你需要更高的網(wǎng)絡(luò)輸入高度。凍結(jié)網(wǎng)絡(luò)高度后,可以根據(jù)部署期間使用的輸入數(shù)據(jù)的縱橫比來決定寬度。

不同分辨率的精度/運(yùn)行時(shí)變化說明

這些是筆記本中使用的默認(rèn)體系結(jié)構(gòu)和規(guī)范的近似運(yùn)行時(shí)和精度。對架構(gòu)或參數(shù)的任何更改都會(huì)產(chǎn)生不同的結(jié)果。這主要是為了更好地了解哪種解決方案適合您的需要。

從 224 英鎊開始,預(yù)計(jì) area=medium 類別的應(yīng)付賬款將增長 7-10% × 320 至 288 × 384 和額外的 7-10%AP 當(dāng)你選擇 320 × 448 。在這些分辨率中, area=large 的精度幾乎保持不變,所以如果需要的話,可以選擇較低的分辨率。根據(jù) COCO 關(guān)鍵點(diǎn)評估 , medium 區(qū)域被定義為居住面積在 36 ^ 2 到 96 ^ 2 之間的人。居住面積在 36 ^ 2 到 96 ^ 2 之間的人被歸類為 large 。

我們使用默認(rèn)大小 288 × 384 在這個(gè)崗位上。要使用不同的分辨率,需要進(jìn)行以下更改:

用所需形狀更新 INT8 量化 中提到的 env 變量。

更新 infer_spec_retrained_strict.yaml 中的 input_shape ,這使您能夠?qū)?dǎo)出的 TRT 模型進(jìn)行健全性評估。默認(rèn)設(shè)置為[288384]。

高度和寬度應(yīng)為 8 的倍數(shù),最好為 16 / 32 / 64 的倍數(shù)。

網(wǎng)絡(luò)中的細(xì)化階段數(shù)

圖 1 顯示了模型體系結(jié)構(gòu)包括細(xì)化階段,每個(gè)階段細(xì)化前一階段的結(jié)果。您可以使用 model 部分下的 stages 參數(shù)來配置它 stages 包括初始預(yù)測階段和細(xì)化階段。我們建議使用最少一個(gè)細(xì)化階段,最多六個(gè)細(xì)化階段,對應(yīng)于[2 , 7]范圍內(nèi)的 stages 。

當(dāng)您使用更多的細(xì)化階段時(shí),這可能有助于提高準(zhǔn)確性,但請記住,這將導(dǎo)致推理時(shí)間的增加。在這篇文章中,我們使用了默認(rèn)的兩個(gè)細(xì)化階段( stages=3 ),這是為了獲得最佳的性能和準(zhǔn)確性而進(jìn)行的調(diào)整。要獲得更快的性能,請使用 stages=2 。

修剪和正則化

修剪有助于顯著減少參數(shù)數(shù)量,并在保持精度的同時(shí)最大限度地提高速度,或者以精度下降為代價(jià)。剪枝閾值越高,模型越小,推理速度越快,但 MIG ht 會(huì)導(dǎo)致精度下降。

要使用的閾值取決于數(shù)據(jù)集。如果再培訓(xùn)的準(zhǔn)確性是好的,你可以增加這個(gè)值得到更小的模型。否則,請降低此值以獲得更好的精度。我們建議使用 prune-retain 循環(huán)進(jìn)行迭代,直到您滿意精度和速度的折衷。在修剪之前訓(xùn)練模型時(shí),也可以使用更高的 L1 正則化權(quán)重。它會(huì)將更多的權(quán)重推向零,從而更容易刪減網(wǎng)絡(luò)權(quán)重。

模型精度和性能

在本節(jié)中,我們將深入探討模型的準(zhǔn)確性和性能,并將其與最新技術(shù)和跨平臺進(jìn)行比較。

與 OpenPose 的比較

我們將此方法與 OpenPose 進(jìn)行比較,因?yàn)榇朔椒ㄗ裱愃频膯未巫缘紫蛏戏椒?。圖 4 顯示,與 OpenPose 模型相比,您實(shí)現(xiàn)了更好的精度性能折衷。準(zhǔn)確率較低約 8%AP ,而您實(shí)現(xiàn)了接近 9 倍的加速模型訓(xùn)練與默認(rèn)參數(shù)在這篇文章中提供。

跨設(shè)備的獨(dú)立性能

下表顯示了使用默認(rèn)參數(shù)使用 TLT 訓(xùn)練的 BodyPoseNet 模型的推理性能。我們使用 TensorRT 的 trtexec 命令分析了模型推理。

結(jié)論

在本文中,您學(xué)習(xí)了如何使用 TLT 中的 BodyPoseNet 應(yīng)用程序優(yōu)化身體姿勢模型。文章展示了如何使用一個(gè)開源的 COCO 數(shù)據(jù)集和 NGC 的一個(gè)預(yù)訓(xùn)練主干來訓(xùn)練和優(yōu)化一個(gè) TLT 模型。有關(guān)模型部署的信息,請參閱 TLT CV 推斷管道 快速啟動(dòng)腳本 和 Deployment 說明。

與 OpenPose 相比,使用此模型,您的推理性能可以提高 9 倍,甚至可以幫助您在嵌入式設(shè)備上實(shí)現(xiàn)實(shí)時(shí)性能。修剪加上 INT8 精度可以在邊緣設(shè)備上提供最高的推理性能。

關(guān)于作者

Sakthivel Sivaraman 是 NVIDIA 的高級軟件工程師,專注于開發(fā)深度學(xué)習(xí)和計(jì)算機(jī)視覺解決方案,并將其部署到邊緣。在 2018 參加“ ZVK3]之前,他從賓夕法尼亞大學(xué)獲得機(jī)器人學(xué)博士學(xué)位。他的研究興趣包括計(jì)算機(jī)視覺、深度學(xué)習(xí)和機(jī)器人技術(shù)。

Rajath Shetty 是 NVIDIA 的工程經(jīng)理,負(fù)責(zé)在汽車和醫(yī)療保健領(lǐng)域應(yīng)用深度學(xué)習(xí)和計(jì)算機(jī)視覺的項(xiàng)目。他的興趣涉及邊緣計(jì)算、算法人工智能應(yīng)用軟件棧。他擁有喬治亞理工學(xué)院的電子和計(jì)算機(jī)工程碩士學(xué)位。

Chintan Shah 是 NVIDIA 的產(chǎn)品經(jīng)理,專注于智能視頻分析解決方案的 AI 產(chǎn)品。他管理工具箱,用于有效的深度學(xué)習(xí)培訓(xùn)和實(shí)時(shí)推理。在他之前的工作中,他正在為 NVIDIA GPU 開發(fā)硬件 IP 。他擁有北卡羅來納州立大學(xué)電氣工程碩士學(xué)位。

Niral Pathak 是 NVIDIA 的軟件工程師,致力于計(jì)算機(jī)視覺解決方案的部署。他擁有加州大學(xué)圣地亞哥分校電子和計(jì)算機(jī)工程碩士學(xué)位。他的興趣包括計(jì)算機(jī)視覺、深度學(xué)習(xí)和機(jī)器人技術(shù)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106355
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7662

    瀏覽量

    90764
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122792
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于STM32的二維碼識別源碼+二維碼解碼庫lib

    基于STM32的二維碼識別源碼+二維碼解碼庫lib,推薦下載!
    發(fā)表于 05-28 22:04

    基于STM32的二維碼識別源碼+二維碼解碼庫lib

    基于STM32的二維碼識別源碼+二維碼解碼庫lib項(xiàng)目實(shí)例下載! 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時(shí)間告知,刪除內(nèi)容!
    發(fā)表于 05-23 20:45

    JCMsuite中對二維光柵的定義和仿真

    光柵是光衍射的周期性結(jié)構(gòu)。它能把入射的光束衍射成幾束向不同方向發(fā)散的光束。 二維光柵 二維光柵在兩個(gè)水平方向上都具有周期性。存在兩個(gè)晶格矢量因此當(dāng)幾何結(jié)構(gòu)移位一個(gè)晶格矢量時(shí), 下圖顯示了一個(gè)正方形
    發(fā)表于 05-19 08:53

    二維碼讀取器是干嘛的

    二維碼讀取器(用于二維碼讀取的機(jī)器),作為一種現(xiàn)代化的自動(dòng)識別技術(shù)設(shè)備,正日益滲透到我們生活的方方面面。從商場購物到物流配送,從醫(yī)療管理到工業(yè)生產(chǎn)線,二維碼讀取器憑借其高效、準(zhǔn)確的讀取能力,發(fā)揮
    的頭像 發(fā)表于 03-17 15:57 ?410次閱讀
    <b class='flag-5'>二維</b>碼讀取器是干嘛的

    二維影像掃描引擎可以應(yīng)用于哪些行業(yè)?

    零售行業(yè)中,二維影像掃描引擎成為提升顧客購物體驗(yàn)和店鋪運(yùn)營效率的關(guān)鍵工具。從商品庫存管理到快速結(jié)賬,二維掃描器能夠迅速識別商品上的條碼或二維碼,減少人工錄入錯(cuò)誤,
    的頭像 發(fā)表于 02-14 14:59 ?519次閱讀
    <b class='flag-5'>二維</b>影像掃描引擎可以應(yīng)用于哪些行業(yè)?

    二維掃碼頭有效掃描距離是多少,影響二維掃描頭掃碼的因素有哪些

    在現(xiàn)代科技快速發(fā)展的今天,二維碼掃描已經(jīng)成為我們?nèi)粘I詈凸ぷ髦胁豢苫蛉钡囊徊糠?,無論是支付、物流追蹤還是信息獲取,都離不開二維碼的掃描。那么,二維掃描頭的有效掃描距離究竟是多少?又有哪些因素會(huì)
    的頭像 發(fā)表于 01-15 16:26 ?1154次閱讀
    <b class='flag-5'>二維</b>掃碼頭有效掃描距離是多少,影響<b class='flag-5'>二維</b>掃描頭掃碼的因素有哪些

    /二維條碼識讀器可以應(yīng)用于哪些行業(yè)?

    /二維條碼識讀器是不可或缺的工具。超市、便利店等場所,通過掃描商品上的條碼,可以迅速識別商品信息,如價(jià)格、庫存量等,從而加快結(jié)賬速度,減少顧客等待時(shí)間,提高顧客滿意
    的頭像 發(fā)表于 01-10 00:00 ?486次閱讀
    一<b class='flag-5'>維</b>/<b class='flag-5'>二維</b>條碼識讀器可以應(yīng)用于哪些行業(yè)?

    RS232接口的二維影像掃描引擎,廣泛用在醫(yī)療設(shè)備上掃一二維

    在醫(yī)療設(shè)備領(lǐng)域,二維碼的應(yīng)用日益廣泛,它作為信息的快速傳遞和識別手段,為醫(yī)療管理、患者追蹤、設(shè)備維護(hù)等環(huán)節(jié)帶來了極大的便利。而在這背后,RS232接口的二維影像掃描引擎扮演著至關(guān)重要的角色,它以
    的頭像 發(fā)表于 12-23 16:02 ?617次閱讀
    RS232接口的<b class='flag-5'>二維</b>影像掃描引擎,廣泛用在醫(yī)療設(shè)備上掃一<b class='flag-5'>維</b><b class='flag-5'>二維</b>碼

    掃手機(jī)和紙張二維碼的掃碼頭:選擇與應(yīng)用指南

    隨著數(shù)字化時(shí)代的快速發(fā)展,二維碼已成為信息傳遞和商業(yè)交易的重要工具。在我們的日常生活和工作中,掃碼頭(掃碼設(shè)備)扮演著至關(guān)重要的角色,特別是在掃描手機(jī)屏幕和紙張二維碼時(shí),選擇合適的掃碼設(shè)備尤為重要
    的頭像 發(fā)表于 12-12 15:18 ?714次閱讀
    掃手機(jī)和紙張<b class='flag-5'>二維</b>碼的掃碼頭:選擇與應(yīng)用指南

    PDA二維數(shù)據(jù)采集器的工作原理,二維碼采集器有什么推薦產(chǎn)品?

    在現(xiàn)代商業(yè)和物流領(lǐng)域,PDA(便攜式數(shù)據(jù)采集器)已經(jīng)成為不可或缺的工具,尤其是二維碼采集器在信息收集和管理方面發(fā)揮著關(guān)鍵作用。本文將介紹PDA二維數(shù)據(jù)采集器的工作原理,并推薦一些優(yōu)秀的產(chǎn)品供您選擇
    的頭像 發(fā)表于 12-05 15:17 ?708次閱讀
    PDA<b class='flag-5'>二維</b>數(shù)據(jù)采集器的工作原理,<b class='flag-5'>二維</b>碼采集器有什么推薦產(chǎn)品?

    二維碼識讀設(shè)備有哪些類型

    隨著二維碼應(yīng)用的日益普及,各類二維碼識讀設(shè)備也應(yīng)運(yùn)而生。這些設(shè)備不僅極大地方便了我們的日常生活,也為企業(yè)提供了更加高效便捷的服務(wù)。那么,你知道二維碼識讀設(shè)備都有哪些類型嗎?讓我們一起來了解一下。據(jù)
    的頭像 發(fā)表于 11-05 16:10 ?925次閱讀
    <b class='flag-5'>二維</b>碼識讀設(shè)備有哪些類型

    labview按行讀取二維數(shù)組之后再按讀取順序重新組成二維數(shù)組如何實(shí)現(xiàn)?

    labview用了index Array按索引一行行讀取二維數(shù)組之后想再按讀取順序重新組成一個(gè)二維數(shù)組如何實(shí)現(xiàn),即第一次讀取的作為第一行,第次讀取的作為第行以此類推
    發(fā)表于 10-25 21:06

    二維掃描PDA用于倉庫管理

    在現(xiàn)代物流與倉儲(chǔ)行業(yè)的快速發(fā)展中,二維掃描PDA作為一項(xiàng)革命性技術(shù),正逐步成為倉庫管理的核心工具。其卓越的信息化與自動(dòng)化能力,不僅重塑了倉庫作業(yè)流程,更在提升工作效率、確保管理精度方面展現(xiàn)出無可比擬
    的頭像 發(fā)表于 09-10 14:22 ?624次閱讀
    <b class='flag-5'>二維</b>掃描PDA用于倉庫管理

    雖然下載contourlet工具箱但是運(yùn)行代碼出現(xiàn)函數(shù)或變量 \'resampc\' 無法識別。

    下載并將contourlet工具箱放到matlab路徑中了,依然不能使用pdfbdec函數(shù)
    發(fā)表于 08-22 17:14

    Labview生成二維

    ?Labview 的一個(gè)Demo,生成二維碼。
    發(fā)表于 08-01 17:12 ?20次下載