一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在openEuler上基于vLLM Ascend部署Qwen3

開放原子 ? 來源:開放原子 ? 2025-05-07 14:44 ? 次閱讀

近日,阿里巴巴正式發(fā)布新一代Qwen大語言模型系列(Qwen3與Qwen3-MoE),在模型規(guī)模與性能上實現(xiàn)多方面升級。openEuler社區(qū)團隊與vLLM社區(qū)通力合作,在第一時間完成Qwen3模型驗證。目前,開發(fā)者可以基于OpenAtom openEuler(簡稱“openEuler”)和vLLM在昇騰設(shè)備上完成 Qwen3 推理。

7e9ed7b2-24e2-11f0-9310-92fbcf53809c.png

新一代Qwen大語言模型主要包含2個版本:

?Qwen3,包括Qwen3-0.6B、Qwen3-1.7B、Qwen3-4B、Qwen3-8B

?Qwen3-MoE,包括Qwen3-MoE-15B-A2B、Qwen3-30B-A3B、Qwen3-235B-A22B

早在4月中旬,vLLM發(fā)布的v0.8.4版本中已經(jīng)包括對Qwen3最新結(jié)構(gòu)的支持。隨即,vLLM社區(qū)的vLLM Ascend團隊同步發(fā)布了v0.8.4rc1版本,并完成了跟進(jìn)和適配。在該版本中,openEuler成為上游默認(rèn)支持的操作系統(tǒng)之一,同步發(fā)布容器鏡像。

Qwen3發(fā)布后,openEuler社區(qū)與vLLM社區(qū)通力合作,在第一時間完成Qwen3模型驗證,這意味著開發(fā)者現(xiàn)在就可以一鍵拉起基于openEuler的vLLM-Ascend容器鏡像在昇騰設(shè)備上實現(xiàn)Qwen3的推理。

快速體驗Qwen3

體驗之前,您需確認(rèn)固件/驅(qū)動已正確安裝,可運行如下命令確認(rèn):

npu-smi info

您可以使用如下命令,一鍵拉起基于openEuler的vLLM-Ascend容器鏡像:

# Update DEVICE according to your device (/dev/davinci[0-7])
exportDEVICE=/dev/davinci0
# Update the openeuler-vllm-ascend image
exportIMAGE=quay.io/ascend/vllm-ascend:v0.8.4rc2-openeuler
docker run --rm
--name openeuler-vllm-ascend 
--device$DEVICE
--device /dev/davinci_manager 
--device /dev/devmm_svm 
--device /dev/hisi_hdc 
-v /usr/local/dcmi:/usr/local/dcmi 
-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi 
-v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ 
-v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info 
-v /etc/ascend_install.info:/etc/ascend_install.info 
-v /root/.cache:/root/.cache 
-p 8000:8000 
-it$IMAGEbash

進(jìn)入容器環(huán)境后,使用ModelScope平臺進(jìn)行下載加速:

exportVLLM_USE_MODELSCOPE=true

在線推理

您可以使用vLLM和vLLM Ascend一鍵部署在線推理服務(wù):

vllmserve Qwen/Qwen3-8B

服務(wù)啟動后,您可以通過curl請求來進(jìn)行內(nèi)容生成:

curl http://localhost:8000/v1/completions 
-H"Content-Type: application/json"
-d '{"model":"Qwen/Qwen3-8B","prompt":"The future of AI is","max_tokens":5, "temperature":0}'|python3-m json.tool

離線推理

您可以使用vLLM和vLLM Ascend進(jìn)行離線推理。

以下是example.py的示例:

fromvllmimportLLM, SamplingParams
prompts = [
 "Hello, my name is",
 "The future of AI is",]
# Create a sampling params object.
sampling_params = SamplingParams(temperature=0.8, top_p=0.95)
# Create an LLM.
llm = LLM(model="Qwen/Qwen3-8B")
# Generate texts from the prompts.
outputs = llm.generate(prompts, sampling_params)
foroutputinoutputs:
  prompt = output.prompt
  generated_text = output.outputs[0].text
 print(f"Prompt:{prompt!r}, Generated text:{generated_text!r}")

運行以上腳本即可使用vLLM和vLLM Ascend進(jìn)行推理:

#exportVLLM_USE_MODELSCOPE=trueto speed up downloadifhuggingface is not reachable.
python example.py

推理結(jié)果如下圖所示:

7eb22d3a-24e2-11f0-9310-92fbcf53809c.png

問題反饋

若您在openEuler上部署與運行Qwen3時遇到任何問題,可在openEuler官方論壇【Qwen3 on openEuler】問題收集與討論專帖下面進(jìn)行反饋。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 操作系統(tǒng)
    +關(guān)注

    關(guān)注

    37

    文章

    7028

    瀏覽量

    124756
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3469

    瀏覽量

    49854
  • 昇騰
    +關(guān)注

    關(guān)注

    1

    文章

    152

    瀏覽量

    6836
  • openEuler
    +關(guān)注

    關(guān)注

    2

    文章

    325

    瀏覽量

    6205

原文標(biāo)題:搶先體驗!在openEuler上基于vLLM Ascend部署Qwen3

文章出處:【微信號:開放原子,微信公眾號:開放原子】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    Embedded SIG | 多 OS 混合部署框架

    Zephyr[3] QEMU 平臺上的混合部署,具體可以參考多 OS 混合部署 Demo[4]在此基礎(chǔ),
    發(fā)表于 06-29 10:08

    使用 Canonical MAAS 部署 openEuler 測試

    云、HPC 場景時,使用MAAS 是減少運維成本的最佳選擇之一。本文的測試 中,展示了如何通過Packer 為 MAAS 構(gòu)建 openEuler 映像并驗證MAAS部署,可使用的臨時解決方法以及如
    發(fā)表于 08-24 11:43

    一次 Rancher 和 openEuler云之旅

    22.03 LTSRancherv2.6.8K3sv1.24.4+k3s1RKE2v1.24.4+rke2r1構(gòu)建 openEuler AMIopenEuler Cloud Image 這方面還不夠完善,目前主要提供
    發(fā)表于 09-29 10:57

    基于 openEuler 22.09 版本構(gòu)建的 NestOS 全新發(fā)布!

    用新的 ignition 點火文件配置替換機器?;谠撎匦裕覀兛梢?b class='flag-5'>在 OpenStack 負(fù)載增加時,輕松擴展。x 詳細(xì)步驟介紹詳見NestOS 容器化部署 OpenStack^[3
    發(fā)表于 10-10 10:49

    如何讓openEulerWSL運行

    首先您需要 6 步配置 WSL 環(huán)境,然后您就能在 Microsoft Store 安裝任意 WSL 發(fā)行版了,包括 openEuler! 目前 openEuler 20.03 LTS SP2
    的頭像 發(fā)表于 08-13 14:29 ?2626次閱讀

    HPC SIG致力openEuler的高性能計算軟件生態(tài)

    經(jīng) openEuler 社區(qū)技術(shù)委員會討論批準(zhǔn),openEuler 社區(qū)正式成立 HPC SIG。HPC SIG 致力于發(fā)展 openEuler 的高性能計算軟件生態(tài),
    的頭像 發(fā)表于 09-26 09:37 ?2306次閱讀

    歐拉(openEuler)亮點openEuler Summit 2021中科創(chuàng)達(dá)展示邊緣側(cè)的能力

    歐拉(openEuler)亮點openEuler Summit 2021中科創(chuàng)達(dá)展示邊緣側(cè)的能力 現(xiàn)在的openEuler 通過開源開放
    的頭像 發(fā)表于 11-10 11:42 ?1704次閱讀
    歐拉(<b class='flag-5'>openEuler</b>)亮點<b class='flag-5'>openEuler</b> Summit 2021<b class='flag-5'>上</b>中科創(chuàng)達(dá)展示<b class='flag-5'>在</b>邊緣側(cè)的能力

    利用英特爾OpenVINO本地運行Qwen2.5-VL系列模型

    近期阿里通義實驗室 Hugging Face 和 ModelScope 開源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和 72B 在內(nèi)的
    的頭像 發(fā)表于 03-12 13:42 ?665次閱讀
    利用英特爾OpenVINO<b class='flag-5'>在</b>本地運行<b class='flag-5'>Qwen</b>2.5-VL系列模型

    壁仞科技完成阿里巴巴通義千問Qwen3全系列模型支持

    ,Qwen3部署成本大幅下降 Qwen3包括兩款混合專家(MoE)模型Qwen3-235B-A22B和Qwen3-30B-A3B;同時還包括
    的頭像 發(fā)表于 04-30 15:19 ?396次閱讀

    新:小米首個推理大模型開源 馬斯克:下周推出Grok 3.5

    似乎國內(nèi)外AI競爭日趨白熱化,就在阿里巴巴發(fā)布Qwen3(通義千問3)之后,引發(fā)業(yè)界廣泛關(guān)注;很多大廠在跟進(jìn),大模型不斷新: 阿里巴巴開源新一代通義千問模型Qwen3 4月29日凌晨
    的頭像 發(fā)表于 04-30 16:08 ?561次閱讀

    幾B都有!BM1684X一鍵適配全系列Qwen3

    Qwen3發(fā)布,大小尺寸通吃Qwen3一發(fā)布,登頂開源大模型排行榜!235B、32B、8B、4B、1.7B云邊端全尺寸模型,BF16和FP8兩種精度,一次性發(fā)布,無論云端大卡還是邊緣AI設(shè)備,都可
    的頭像 發(fā)表于 04-30 18:37 ?53次閱讀
    幾B都有!BM1684X一鍵適配全系列<b class='flag-5'>Qwen3</b>

    中科曙光DeepAI深算智能引擎全面支持Qwen3

    日前,Qwen3正式發(fā)布并全部開源8款混合推理模型。作為Qwen系列中的最新一代大型語言模型,Qwen3推理、指令遵循、工具調(diào)用、多語言能力等方面實現(xiàn)全面增強。
    的頭像 發(fā)表于 05-06 15:17 ?162次閱讀

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團隊模型發(fā)布當(dāng)天,率先完成了Qwen3全系列模型全功能GPU的高效支
    的頭像 發(fā)表于 05-07 15:24 ?155次閱讀

    寒武紀(jì)率先支持Qwen3全系列模型

    近日,阿里Qwen團隊一口氣上新8大模型,Qwen3正式發(fā)布并全部開源。
    的頭像 發(fā)表于 05-07 15:51 ?105次閱讀

    后摩智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時不到1天,后摩智能自研NPU迅速實現(xiàn)Qwen3 系列模型(Qwen3 0.6B-14B)端邊側(cè)的高效
    的頭像 發(fā)表于 05-07 16:46 ?136次閱讀