一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邁向更高效的圖像分類:解析DeiT模型的移植和適配

算能開(kāi)發(fā)者社區(qū) ? 2023-11-23 08:33 ? 次閱讀

1. DeiT概述

1.1 項(xiàng)目簡(jiǎn)介

Deit(Data-efficient image Transformers)是由Facebook與索邦大學(xué)的Matthieu Cord教授合作開(kāi)發(fā)的圖像分類模型。作為一種基于Transformer架構(gòu)的深度學(xué)習(xí)模型,DeiT在保持高性能的同時(shí),能夠大大提高數(shù)據(jù)效率,為圖像識(shí)別領(lǐng)域帶來(lái)了顛覆性的變化。

與傳統(tǒng)的CNN不同,DeiT模型采用了Transformer的自注意力機(jī)制,將圖像分割成若干個(gè)固定大小的塊,并對(duì)每個(gè)塊進(jìn)行編碼,捕捉圖像中的長(zhǎng)程依賴關(guān)系。

本文將為大家介紹如何將DeiT移植到算能BM1684X平臺(tái)上。

1.2 模型介紹

DeiT目前有3個(gè)版本的模型(tiny, small, base),均由12個(gè)Attention結(jié)構(gòu)組成,模型區(qū)別在于輸入的header個(gè)數(shù)及embed_dim不同。

Attention結(jié)構(gòu)如下圖所示:

f5dd2bea-8997-11ee-9788-92fbcf53809c.pngattention

不同版本的模型具體參數(shù)區(qū)別如下表:

f5f01ad4-8997-11ee-9788-92fbcf53809c.pngversion

2. 模型移植

以下部分介紹如何將DeiT移植到算能BM1684X平臺(tái)上。

2.1 模型trace

原始DeiT模型基于Pytorch框架訓(xùn)練及推理。算能TPU-MLIR工具鏈可以編譯通過(guò)jit trace過(guò)的靜態(tài)模型。

首先進(jìn)行模型trace,命令如下,需要修改原推理代碼。

f612c46c-8997-11ee-9788-92fbcf53809c.pngtrace

2.2 模型編譯

以下介紹如何使用算能TPU-MLIR工具鏈將上一步trace過(guò)的模型編譯成可以在算能BM1684X上推理的bmodel。在模型移植過(guò)程中遇到一些算子邊界的處理問(wèn)題,均已修復(fù)。

f6221b60-8997-11ee-9788-92fbcf53809c.pngtransformf634c6ac-8997-11ee-9788-92fbcf53809c.pngdeploy

2.3 精度測(cè)試

DeiT為分類模型,精度測(cè)試采用topk來(lái)進(jìn)行。

精度測(cè)試及性能測(cè)試結(jié)果如下:

f649d45c-8997-11ee-9788-92fbcf53809c.pngprecision

3 小結(jié)

總體看移植過(guò)程相對(duì)順利,在解決了部分算子邊界問(wèn)題之后可以成功編譯出bmodel。F32精度基本可與原始框架對(duì)齊。由于第一個(gè)Conv stride > 15,在進(jìn)行F16/BF16轉(zhuǎn)換時(shí)遇到比對(duì)問(wèn)題,這部分代碼目前仍在重構(gòu),生成bmodel過(guò)程中這部分采用F32混精度處理。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1091

    瀏覽量

    40930
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3469

    瀏覽量

    49843
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5548

    瀏覽量

    122332
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于RV1126開(kāi)發(fā)板實(shí)現(xiàn)自學(xué)習(xí)圖像分類方案

    在RV1126開(kāi)發(fā)板上實(shí)現(xiàn)自學(xué)習(xí):在識(shí)別前對(duì)物體圖片進(jìn)行模型學(xué)習(xí),訓(xùn)練完成后通過(guò)算法分類得出圖像模型ID。 方案設(shè)計(jì)邏輯流程圖,方案代碼分為分為兩個(gè)業(yè)務(wù)流程,主體代碼負(fù)
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開(kāi)發(fā)板實(shí)現(xiàn)自學(xué)習(xí)<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>方案

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    的詳細(xì)解析: 1. 核心組成與工作原理 視覺(jué)編碼器 :提取圖像特征,常用CNN(如ResNet)或視覺(jué)Transformer(ViT)。 語(yǔ)言模型 :處理文本輸入/輸出,如GPT、BERT等,部分
    的頭像 發(fā)表于 03-17 15:32 ?1650次閱讀
    ?VLM(視覺(jué)語(yǔ)言<b class='flag-5'>模型</b>)?詳細(xì)<b class='flag-5'>解析</b>

    DMD能夠顯示更高位數(shù)的圖像嗎?

    我在使用DLP DIscovery 4100時(shí)發(fā)現(xiàn)上位機(jī)只能傳輸二進(jìn)制圖像到DMD中顯示,我想問(wèn)一下DMD能夠顯示更高位數(shù)的圖像
    發(fā)表于 03-03 08:33

    天數(shù)智芯加速DeepSeek全系列模型適配

    天數(shù)智芯正攜手合作伙伴,以驚人的速度推進(jìn)DeepSeek全系列模型適配與上線工作。目前,多款DeepSeek模型服務(wù)已正式登陸各大平臺(tái),為用戶帶來(lái)多樣化的選擇。 其中,DeepSeek
    的頭像 發(fā)表于 02-10 15:30 ?741次閱讀

    龍芯中科與DeepSeek大模型協(xié)同適配成功

    龍芯中科近日宣布了一項(xiàng)重大進(jìn)展,其自主研發(fā)的龍芯3號(hào)CPU已成功運(yùn)行DeepSeek R17B模型,實(shí)現(xiàn)了本地化高效部署。這一成就標(biāo)志著國(guó)產(chǎn)芯片與AI大模型的協(xié)同適配取得了關(guān)鍵性突破,
    的頭像 發(fā)表于 02-10 09:14 ?564次閱讀

    海光信息技術(shù)團(tuán)隊(duì)成功適配DeepSeek大模型

    方面取得了重要進(jìn)展。 DeepSeek-Janus-Pro是海光團(tuán)隊(duì)近期完成適配優(yōu)化的第三款DeepSeek大模型。此次適配工作的順利完成,充分展示了海光DCU在生態(tài)構(gòu)建和技術(shù)支持方面的強(qiáng)大優(yōu)勢(shì)。通過(guò)深度整合和優(yōu)化,海光DCU為
    的頭像 發(fā)表于 02-08 14:10 ?516次閱讀

    xgboost在圖像分類中的應(yīng)用

    和易用性,在各種機(jī)器學(xué)習(xí)任務(wù)中得到了廣泛應(yīng)用,包括分類、回歸和排序問(wèn)題。在圖像分類領(lǐng)域,盡管深度學(xué)習(xí)模型(如卷積神經(jīng)網(wǎng)絡(luò)CNN)占據(jù)主導(dǎo)地位,但XGBoost仍然有其獨(dú)特的應(yīng)用價(jià)值,特
    的頭像 發(fā)表于 01-19 11:16 ?718次閱讀

    Mamba入局圖像復(fù)原,達(dá)成新SOTA

    MambaIRv2,更高性能、更高效率!另外還有ACM MM 2024上的Freqmamba方法,在圖像去雨任務(wù)中取得了SOTA性能! 顯然,這種基于Mamba的方法在圖像復(fù)原領(lǐng)域,比
    的頭像 發(fā)表于 12-30 18:09 ?602次閱讀
    Mamba入局<b class='flag-5'>圖像</b>復(fù)原,達(dá)成新SOTA

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    的規(guī)律,從而降低了模型在新數(shù)據(jù)上的泛化能力。 對(duì)抗攻擊易感性:圖像分類模型容易受到精心設(shè)計(jì)的對(duì)抗樣本的影響,這些樣本在人類看來(lái)幾乎與原始圖像
    發(fā)表于 12-19 14:33

    使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是一個(gè)涉及多個(gè)步驟的過(guò)程。 1. 問(wèn)題定義 確定目標(biāo) :明確你想要分類圖像類型,例如貓和狗、不同的植物種類等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及
    的頭像 發(fā)表于 11-15 15:01 ?700次閱讀

    高效模型的推理綜述

    模型由于其在各種任務(wù)中的出色表現(xiàn)而引起了廣泛的關(guān)注。然而,大模型推理的大量計(jì)算和內(nèi)存需求對(duì)其在資源受限場(chǎng)景的部署提出了挑戰(zhàn)。業(yè)內(nèi)一直在努力開(kāi)發(fā)旨在提高大模型推理效率的技術(shù)。本文對(duì)現(xiàn)有的關(guān)于
    的頭像 發(fā)表于 11-15 11:45 ?1189次閱讀
    <b class='flag-5'>高效</b>大<b class='flag-5'>模型</b>的推理綜述

    AI大模型圖像識(shí)別中的優(yōu)勢(shì)

    AI大模型圖像識(shí)別中展現(xiàn)出了顯著的優(yōu)勢(shì),這些優(yōu)勢(shì)主要源于其強(qiáng)大的計(jì)算能力、深度學(xué)習(xí)算法以及大規(guī)模的數(shù)據(jù)處理能力。以下是對(duì)AI大模型圖像識(shí)別中優(yōu)勢(shì)的介紹: 一、
    的頭像 發(fā)表于 10-23 15:01 ?2079次閱讀

    浪潮信息源2.0大模型與百度PaddleNLP全面適配

    近日,浪潮信息宣布其開(kāi)源大模型源2.0已全面適配百度PaddleNLP。這一舉措標(biāo)志著大模型開(kāi)發(fā)生態(tài)正加速進(jìn)化,為用戶提供了更加便捷、高效的大模型
    的頭像 發(fā)表于 10-17 18:15 ?824次閱讀

    計(jì)算機(jī)視覺(jué)怎么給圖像分類

    圖像分類是計(jì)算機(jī)視覺(jué)領(lǐng)域中的一項(xiàng)核心任務(wù),其目標(biāo)是將輸入的圖像自動(dòng)分配到預(yù)定義的類別集合中。這一過(guò)程涉及圖像的特征提取、特征表示以及分類器的
    的頭像 發(fā)表于 07-08 17:06 ?1356次閱讀

    如何使用PyTorch構(gòu)建更高效的人工智能

    術(shù)界和工業(yè)界得到了廣泛應(yīng)用。本文將深入探討如何使用PyTorch構(gòu)建更高效的人工智能系統(tǒng),從框架基礎(chǔ)、模型訓(xùn)練、實(shí)戰(zhàn)應(yīng)用等多個(gè)方面進(jìn)行詳細(xì)解析
    的頭像 發(fā)表于 07-02 13:12 ?632次閱讀