一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用英特爾OpenVINO在本地運(yùn)行Qwen2.5-VL系列模型

英特爾物聯(lián)網(wǎng) ? 來(lái)源:英特爾物聯(lián)網(wǎng) ? 2025-03-12 13:42 ? 次閱讀

作者:

楊亦誠(chéng) 英特爾 AI 軟件工程師

介紹

近期阿里通義實(shí)驗(yàn)室在 Hugging Face 和 ModelScope 上開(kāi)源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和 72B 在內(nèi)的 3 個(gè)模型尺寸。其中,Qwen2.5-VL-7B-Instruct 在多個(gè)任務(wù)中超越了 GPT-4o-mini,而 Qwen2.5-VL-3B 作為端側(cè) AI 的潛力股,甚至超越了之前版本 的Qwen2-VL 7B 模型。Qwen2.5-VL 增強(qiáng)了模型對(duì)時(shí)間和空間尺度的感知能力,在空間維度上,Qwen2.5-VL 不僅能夠動(dòng)態(tài)地將不同尺寸的圖像轉(zhuǎn)換為不同長(zhǎng)度的 token,使用圖像的實(shí)際尺寸來(lái)表示檢測(cè)框和點(diǎn)等坐標(biāo),這也使得Qwen2.5-VL模型可以直接作為一個(gè)視覺(jué) Agent,推理并動(dòng)態(tài)地使用工具,具備了使用電腦和使用手機(jī)的能力。

本文將分享如何利用英特爾 OpenVINO 工具套件在本地加速Q(mào)wen2.5-VL系列模型的推理任務(wù)。

內(nèi)容列表

環(huán)境準(zhǔn)備

模型下載和轉(zhuǎn)換

加載模型

準(zhǔn)備模型輸入

運(yùn)行圖像理解任務(wù)

1環(huán)境準(zhǔn)備

該示例基于Jupyter Notebook編寫(xiě),因此我們需要準(zhǔn)備好相對(duì)應(yīng)的Python環(huán)境?;A(chǔ)環(huán)境可以參考以下鏈接安裝,并根據(jù)自己的操作系統(tǒng)進(jìn)行選擇具體步驟。

https://github.com/openvinotoolkit/openvino_notebooks?tab=readme-ov-file#-getting-started

58014a4e-fb35-11ef-9310-92fbcf53809c.png

圖:基礎(chǔ)環(huán)境安裝導(dǎo)航頁(yè)面

此外本示例將依賴(lài)qwen-vl-utils以及optimum-intel組件,其中安裝optimum-intel過(guò)程中將自動(dòng)安裝OpenVINOruntime, NNCF及Transformers等相關(guān)依賴(lài)庫(kù)。

2模型下載和轉(zhuǎn)換

這一步中,我們需要完成將Qwen2.5-VL .safetensor格式模型轉(zhuǎn)化為OpenVINO IR格式,并對(duì)其進(jìn)行INT4權(quán)重量化,實(shí)現(xiàn)對(duì)模型體積的壓縮。為了達(dá)到這一目的,optimum-intel提供了命令行工具:optimum-cli,基于該工具,我們只需一行命令便可實(shí)現(xiàn)上述步驟:

 optimum-cli export openvino --model Qwen/Qwen2.5-VL-3B-Instruct Qwen2.5-VL-3B-Instruct/INT4 --weight-format int4

其中“—model”參數(shù)后的“Qwen/Qwen2.5-VL-3B-Instruct”為模型在HuggingFace上的model id,這里我們也提前下載原始模型,并將model id替換為原始模型的本地路徑,針對(duì)國(guó)內(nèi)開(kāi)發(fā)者,推薦使用ModelScope魔搭社區(qū)作為原始模型的下載渠道,具體加載方式可以參考ModelScope官方指南:https://www.modelscope.cn/docs/models/download

3加載模型

接下來(lái)需要完成對(duì)模型推理任務(wù)的初始化,并將模型載入到指定硬件的內(nèi)存中,同樣的,我們可以利用optimum-intel封裝好的OpenVINO視覺(jué)多模態(tài)任務(wù)對(duì)象 OVModelForVisualCausalLM 對(duì)象完成該操作。

from optimum.intel.openvino import OVModelForVisualCausalLM
model = OVModelForVisualCausalLM.from_pretrained(model_dir, device.value)

如示例代碼所示,通過(guò)OVModelForVisualCausalLM的from_pretrained函數(shù)接口,可以很方便地根據(jù)用戶(hù)提供的模型路徑,將模型載入到指定的硬件平臺(tái),完成視覺(jué)多模態(tài)任務(wù)的初始化。

4準(zhǔn)備模型輸入

第四步需要根據(jù)Qwen2.5-VL模型要求的prompt template準(zhǔn)備模型的輸入數(shù)據(jù)。數(shù)據(jù)格式如下:

messages = [
  {
    "role": "user",
    "content": [
      {
        "type": "image",
        "image": f"file://{example_image_path}",
      },
      {"type": "text", "text": question},
    ],
  }
]

其中:

“role“字段用于指定對(duì)話(huà)角色,包括system, user以及assistant三種類(lèi)型;

"content"字段表示對(duì)話(huà)角色輸出的內(nèi)容,其中”type”為內(nèi)容類(lèi)別,包含image,video,text三種類(lèi)型,支持多張image輸入。

接下來(lái)可以通過(guò)Qwen官方提供的方法將用戶(hù)輸入的text和image編碼為模型的輸入tensor。

text = processor.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
  text=[text],
  images=image_inputs,
  videos=video_inputs,
  padding=True,
  return_tensors="pt",
)

5運(yùn)行圖像理解任務(wù)

最后一步需要調(diào)用模型對(duì)象的generation函數(shù),進(jìn)行答案生成,這里可以通過(guò)添加TextStreamer迭代器的方式,在命令行中流式輸出文本內(nèi)容。

from transformers import TextStreamer
generated_ids = model.generate(**inputs, max_new_tokens=100, streamer=TextStreamer(processor.tokenizer, skip_prompt=True, skip_special_tokens=True))

6總結(jié)

Qwen2.5-VL 系列模型的發(fā)布帶來(lái)了更精準(zhǔn)的視覺(jué)定位,文字理解以及Agent智能體能力。OpenVINO 則可以以更低的資源占用,高效地在本地運(yùn)行Qwen2.5-VL視覺(jué)多模態(tài)模型,激發(fā)AIPC異構(gòu)處理器的潛能。相信構(gòu)建面向桌面操作系統(tǒng)的本地智能體應(yīng)用已不再遙遠(yuǎn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10141

    瀏覽量

    173573
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3464

    瀏覽量

    49819
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    112

    瀏覽量

    380

原文標(biāo)題:開(kāi)發(fā)者實(shí)戰(zhàn)|如何利用OpenVINO? 在本地運(yùn)行Qwen2.5-VL系列模型

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于C#和OpenVINO?英特爾獨(dú)立顯卡上部署PP-TinyPose模型

    OpenVINO,將 PP-TinyPose 模型部署英特爾獨(dú)立顯卡上。 1.1 PP-TinyPose 模型簡(jiǎn)介 PP-TinyP
    的頭像 發(fā)表于 11-18 18:27 ?2858次閱讀

    英特爾CPU部署Qwen 1.8B模型的過(guò)程

    本文介紹了英特爾 13 代酷睿 CPU i5 - 13490F 設(shè)備上部署 Qwen 1.8B 模型的過(guò)程,你需要至少 16GB 內(nèi)存的機(jī)器來(lái)完成這項(xiàng)任務(wù),我們將使用
    的頭像 發(fā)表于 01-12 10:28 ?3185次閱讀

    英特爾?獨(dú)立顯卡與OpenVINO?工具套件結(jié)合使用時(shí),無(wú)法運(yùn)行推理怎么解決?

    使用英特爾?獨(dú)立顯卡與OpenVINO?工具套件時(shí)無(wú)法運(yùn)行推理
    發(fā)表于 03-05 06:56

    請(qǐng)問(wèn)OpenVINO?工具套件英特爾?Distribution是否與Windows? 10物聯(lián)網(wǎng)企業(yè)版兼容?

    無(wú)法基于 Windows? 10 物聯(lián)網(wǎng)企業(yè)版的目標(biāo)系統(tǒng)上使用 英特爾? Distribution OpenVINO? 2021* 版本推斷模型。
    發(fā)表于 03-05 08:32

    為什么Caffe模型可以直接與OpenVINO?工具套件推斷引擎API一起使用,而無(wú)法轉(zhuǎn)換為中間表示 (IR)?

    推斷 Caffe 模型直接基于 英特爾? 神經(jīng)電腦棒 2 (英特爾? NCS2)。 無(wú)法確定為什么 Caffe 模型可以直接與OpenVINO
    發(fā)表于 03-05 06:31

    為什么無(wú)法檢測(cè)到OpenVINO?工具套件中的英特爾?集成圖形處理單元?

    Ubuntu* Desktop 22.04 上安裝了 英特爾? Graphics Driver 版本并OpenVINO? 2023.1。 運(yùn)行 python 代碼: python
    發(fā)表于 03-05 08:36

    為什么選擇加入英特爾?

    近日,加入英特爾已有3個(gè)月的明星芯片架構(gòu)師Jim Keller接受了外媒VentureBeat的采訪(fǎng),采訪(fǎng)中談及了自己加入英特爾的始末和讓其為之興奮的新角色——英特爾公司技術(shù)、系統(tǒng)架
    發(fā)表于 07-25 07:31

    介紹英特爾?分布式OpenVINO?工具包

    性能。 英特爾?OpenlandOpen?管理軟件包包括英特爾?深度學(xué)習(xí)部署工具包(英特爾?DLDT)。適用于Linux *的OpenVINO?工具包的
    發(fā)表于 07-26 06:45

    怎么安裝適用于Linux *的OpenVINO?工具包的英特爾?發(fā)布版?

    怎么安裝適用于Linux *的OpenVINO?工具包的英特爾?發(fā)布版?
    發(fā)表于 09-23 08:33

    安裝OpenVINO工具套件英特爾Distribution時(shí)出現(xiàn)錯(cuò)誤的原因?

    安裝OpenVINO?工具套件英特爾 Distribution時(shí),出現(xiàn)錯(cuò)誤: Python 3.10.0.ECHO is off. Unsupported Python version.
    發(fā)表于 08-15 08:14

    英特爾推出了OpenVINO

    接受外媒ZDNet采訪(fǎng)的時(shí)候,英特爾高管Adam Burns表示:“構(gòu)建智能的不只是一種架構(gòu)。”OpenVINO提供了一組已經(jīng)優(yōu)化的能力和runtime引擎,能夠允許 開(kāi)發(fā) 者架構(gòu)
    的頭像 發(fā)表于 04-13 14:18 ?3007次閱讀

    英特爾? FPGA AI套件搭配OpenVINO?工具包

    您可以使用英特爾 分發(fā)版 OpenVINO 工具包和英特爾 FPGA AI 套件開(kāi)發(fā)推理系統(tǒng),服務(wù)于從 DL 增強(qiáng)型嵌入式系統(tǒng)一直到多個(gè) FPGA 加速的服務(wù)器上
    的頭像 發(fā)表于 08-11 11:53 ?1242次閱讀

    已有超過(guò)500款A(yù)I模型英特爾酷睿Ultra處理器上得以?xún)?yōu)化運(yùn)行

    近日,英特爾宣布全新英特爾 酷睿 Ultra處理器上,有超過(guò)500款A(yù)I模型得以?xún)?yōu)化運(yùn)行
    的頭像 發(fā)表于 05-11 09:31 ?987次閱讀

    使用PyTorch英特爾獨(dú)立顯卡上訓(xùn)練模型

    《PyTorch 2.5重磅更新:性能優(yōu)化+新特性》中的一個(gè)新特性就是:正式支持英特爾獨(dú)立顯卡上訓(xùn)練模型!
    的頭像 發(fā)表于 11-01 14:21 ?1681次閱讀
    使用PyTorch<b class='flag-5'>在</b><b class='flag-5'>英特爾</b>獨(dú)立顯卡上訓(xùn)練<b class='flag-5'>模型</b>

    英特爾賦能DeepSeek本地運(yùn)行,助力汽車(chē)升級(jí)“最強(qiáng)大腦”

    英特爾近期宣布支持DeepSeek本地實(shí)現(xiàn)高效運(yùn)行。據(jù)悉,借助英特爾的軟件定義汽車(chē)車(chē)載平臺(tái),DeepSeek-R1
    的頭像 發(fā)表于 02-17 09:37 ?575次閱讀