一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在Ollama中使用OpenVINO后端

英特爾物聯(lián)網(wǎng) ? 來(lái)源:OpenVINO 中文社區(qū) ? 2025-04-14 10:22 ? 次閱讀

來(lái)源:OpenVINO 中文社區(qū)

為什么選擇 Ollama + OpenVINO 組合?

雙引擎驅(qū)動(dòng)的技術(shù)優(yōu)勢(shì)

Ollama 和 OpenVINO 的結(jié)合為大型語(yǔ)言模型(LLM)的管理和推理提供了強(qiáng)大的雙引擎驅(qū)動(dòng)。Ollama 提供了極簡(jiǎn)的模型管理工具鏈,而 OpenVINO 則通過(guò) Intel 硬件(CPU/GPU/NPU)為模型推理提供了高效的加速能力。這種組合不僅簡(jiǎn)化了模型的部署和調(diào)用流程,還顯著提升了推理性能,特別適合需要高性能和易用性的場(chǎng)景。

項(xiàng)目地址:openvino_contrib

(https://github.com/openvinotoolkit/openvino_contrib/tree/master/modules/ollama_openvino)

Ollama 的核心價(jià)值

1.極簡(jiǎn)的 LLM 管理工具鏈:Ollama 提供了簡(jiǎn)單易用的命令行工具,用戶可以輕松地下載、管理和運(yùn)行各種 LLM 模型。

2.支持模型一鍵部署:通過(guò)簡(jiǎn)單的命令,用戶可以快速部署和調(diào)用模型,無(wú)需復(fù)雜的配置。

3.提供統(tǒng)一的 API 接口Ollama 提供了統(tǒng)一的 API 接口,方便開發(fā)者集成到各種應(yīng)用中。

4.活躍的開源社區(qū)生態(tài):Ollama 擁有活躍的開源社區(qū),用戶可以獲取豐富的資源和支持。

Ollama 局限性

Ollama 目前僅支持 llama.cpp 作為后端,這帶來(lái)了一些不便:

1.硬件兼容性受限:llama.cpp 主要針對(duì) CPU 以及NVIDIA GPU優(yōu)化,無(wú)法充分利用 INTEL GPU 或 NPU 等硬件加速能力,導(dǎo)致在需要高性能計(jì)算的場(chǎng)景下表現(xiàn)不足。

2.性能瓶頸:對(duì)于大規(guī)模模型或高并發(fā)場(chǎng)景,llama.cpp 的性能可能無(wú)法滿足需求,尤其是在處理復(fù)雜任務(wù)時(shí),推理速度較慢。

OpenVINO 的突破性能力

1.為 Intel 硬件提供深度優(yōu)化(CPU/iGPU/Arc dGPU/NPU):OpenVINO 針對(duì) Intel 硬件進(jìn)行了深度優(yōu)化,能夠充分發(fā)揮 CPU、集成 GPU、獨(dú)立 GPU 和 NPU 的性能潛力。

2.支持跨平臺(tái)異構(gòu)計(jì)算:OpenVINO 支持跨平臺(tái)異構(gòu)計(jì)算,能夠在不同硬件平臺(tái)上實(shí)現(xiàn)高效的模型推理。

3.提供模型量化壓縮工具鏈:OpenVINO 提供了豐富的模型量化壓縮工具鏈,能夠顯著減少模型大小,提升推理速度。

4.實(shí)現(xiàn)推理性能顯著提升:通過(guò) OpenVINO 的優(yōu)化,模型推理性能可以得到顯著提升,特別是在大規(guī)模模型和高并發(fā)的場(chǎng)景。

5.可擴(kuò)展性與靈活性支持: OpenVINO GenAI 為 Ollama-OV 提供了強(qiáng)大的可擴(kuò)展性和靈活性,支持speculative decoding,Prompt-lookup decoding, pipeline parallel, continuous batching 等 pipeline 優(yōu)化技術(shù),為未來(lái)更多 pipeline serving 優(yōu)化奠定了堅(jiān)實(shí)基礎(chǔ)。

集成帶來(lái)的開發(fā)者紅利

1.極簡(jiǎn)開發(fā)體驗(yàn):保留 Ollama 的 CLI 交互特性,開發(fā)者可以繼續(xù)使用熟悉的命令行工具進(jìn)行模型管理和調(diào)用。

2.性能飛躍:通過(guò) OpenVINO 獲得硬件級(jí)加速,模型推理性能得到顯著提升,特別是在大規(guī)模模型和高并發(fā)場(chǎng)景下。

3.多硬件適配,生態(tài)擴(kuò)展:OpenVINO 的支持使得 Ollama 能夠適配多種硬件平臺(tái),擴(kuò)展了其應(yīng)用生態(tài),為開發(fā)者提供了更多的選擇和靈活性。

三步開啟加速體驗(yàn)

1. 下載預(yù)先編譯好了 Linux、Windows 系統(tǒng)的可執(zhí)行文件,文件下載地址:

下載鏈接參考:

https://github.com/openvinotoolkit/openvino_contrib/tree/master/modules/ollama_openvino#%E7%99%BE%E5%BA%A6%E4%BA%91%E7%9B%98

源碼編譯參考:

https://github.com/openvinotoolkit/openvino_contrib/tree/master/modules/ollama_openvino#building-from-source

2. 配置 OpenVINO GenAI 的環(huán)境

以 windows 系統(tǒng)為例,首先將下載的 OpenVINO GenAI 壓縮包解壓到目錄 openvino_genai_windows_2025.2.0.0.dev20250320_x86_64 下。

然后執(zhí)行以下命令:

cd openvino_genai_windows_2025.2.0.0.dev20250320_x86_64
setupvars.bat

3. 設(shè)置 cgocheck

Windows:

set GODEBUG=cgocheck=0

Linux:

export GODEGUG=cgocheck=0

到此,可執(zhí)行文件已經(jīng)下載完成、OpenVINO GenAI、OpenVINO、CGO環(huán)境也已經(jīng)配置完成。

自定義模型實(shí)戰(zhàn)

因?yàn)?Ollama model library 不支持上傳非 GGUF 格式的 IR,所以我們?cè)诒镜鼗?OpenVINO IR 制作 Ollama 支持的 OCI image;我們以 DeepSeek-R1-Distill-Qwen-7B 為例:

1. 下載 OpenVINO IR 模型,從 ModelScope 下載:

pip install modelscope
   modelscope download --model zhaohb/DeepSeek-R1-Distill-Qwen-7B-int4-ov --local_dir ./DeepSeek-R1-Distill-Qwen-7B-int4-ov

2. 把下載的 OpenVINO IR 的目錄打包成 *tar.gz 的格式

tar -zcvf DeepSeek-R1-Distill-Qwen-7B-int4-ov.tar.gz DeepSeek-R1-Distill-Qwen-7B-int4-ov

3. 創(chuàng)建 Modelfile 文件

FROM DeepSeek-R1-Distill-Qwen-7B-int4-ov.tar.gz
ModelType "OpenVINO"
InferDevice "GPU"
PARAMETER repeat_penalty 1.0
PARAMETER top_p 1.0
PARAMETER temperature 1.0

4. 創(chuàng)建 ollama 支持的模型

ollama create
DeepSeek-R1-Distill-Qwen-7B-int4-ov:v1 -f Modelfile

這樣我們就創(chuàng)建了 DeepSeek-R1-Distill-Qwen-7B-int4-ov:v1 可以供 Ollama OpenVINO 后端使用的模型。

5. 使用該模型

ollama run DeepSeek-R1-Distill-Qwen-7B-int4-ov:v1 "請(qǐng)幫我推薦北京著名的景點(diǎn)"

至此,您已經(jīng)掌握了如何在 Ollama 中使用 OpenVINO 后端。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10141

    瀏覽量

    173566
  • 接口
    +關(guān)注

    關(guān)注

    33

    文章

    8885

    瀏覽量

    152972
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4882

    瀏覽量

    130389
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33554

    瀏覽量

    274193
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    112

    瀏覽量

    379

原文標(biāo)題:當(dāng) Ollama 遇上 OpenVINO? :解鎖多硬件 AI 推理新范式

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    何在bash中使用條件語(yǔ)句

    今天我們介紹一下如何在 bash 中使用條件語(yǔ)句。
    的頭像 發(fā)表于 12-09 17:27 ?2350次閱讀
    如<b class='flag-5'>何在</b>bash<b class='flag-5'>中使</b>用條件語(yǔ)句

    何在Linux中使用htop命令

    本文介紹如何在 Linux 中使用 htop 命令。
    的頭像 發(fā)表于 12-04 14:45 ?2644次閱讀
    如<b class='flag-5'>何在</b>Linux<b class='flag-5'>中使</b>用htop命令

    何在OpenVINO工具包中使用帶推理引擎的blob?

    無(wú)法確定如何在OpenVINO?工具包中使用帶推理引擎的 blob。
    發(fā)表于 08-15 07:17

    無(wú)法在OpenVINO工具套件中使用ENetwork.層怎么解決?

    OpenVINO? 工具套件 2021.4 中使用 IENetwork.層 。 收到錯(cuò)誤:openvino.inference_engine.ie_api。IENetwork 對(duì)象沒有屬性“層”
    發(fā)表于 08-15 06:41

    何在VxWorks系統(tǒng)中使用TrueType字庫(kù)

    何在VxWorks系統(tǒng)中使用TrueType字庫(kù)
    發(fā)表于 03-29 12:25 ?19次下載

    何在UltraScale+設(shè)計(jì)中使用UltraRAM模塊

    了解如何在UltraScale +設(shè)計(jì)中包含新的UltraRAM模塊。 該視頻演示了如何在UltraScale + FPGA和MPSoC中使用UltraRAM,包括新的Xilinx參數(shù)化宏(XPM)工具。
    的頭像 發(fā)表于 11-22 05:50 ?8294次閱讀

    何在java代碼中使用HTTP代理IP

    何在java代碼中使用HTTP代理IP。
    的頭像 發(fā)表于 08-04 15:38 ?2388次閱讀

    何在python代碼中使用HTTP代理IP

    何在python代碼中使用HTTP代理IP。
    的頭像 發(fā)表于 08-04 15:46 ?1396次閱讀

    何在PHP代碼中使用HTTP代理IP

    何在PHP代碼中使用HTTP代理IP。
    的頭像 發(fā)表于 08-04 16:08 ?2607次閱讀

    何在Arduino中使用伺服電機(jī)

    電子發(fā)燒友網(wǎng)站提供《如何在Arduino中使用伺服電機(jī).zip》資料免費(fèi)下載
    發(fā)表于 10-24 09:46 ?3次下載
    如<b class='flag-5'>何在</b>Arduino<b class='flag-5'>中使</b>用伺服電機(jī)

    何在Arduino中使用LDR

    電子發(fā)燒友網(wǎng)站提供《如何在Arduino中使用LDR.zip》資料免費(fèi)下載
    發(fā)表于 10-31 09:50 ?0次下載
    如<b class='flag-5'>何在</b>Arduino<b class='flag-5'>中使</b>用LDR

    何在Arduino中使用Modbus

    電子發(fā)燒友網(wǎng)站提供《如何在Arduino中使用Modbus.zip》資料免費(fèi)下載
    發(fā)表于 11-22 11:21 ?14次下載
    如<b class='flag-5'>何在</b>Arduino<b class='flag-5'>中使</b>用Modbus

    何在Arduino中使用微型伺服

    電子發(fā)燒友網(wǎng)站提供《如何在Arduino中使用微型伺服.zip》資料免費(fèi)下載
    發(fā)表于 11-28 09:50 ?1次下載
    如<b class='flag-5'>何在</b>Arduino<b class='flag-5'>中使</b>用微型伺服

    何在測(cè)試中使用ChatGPT

    Dimitar Panayotov 在 2023 年 QA Challenge Accepted 大會(huì) 上分享了他如何在測(cè)試中使用 ChatGPT。
    的頭像 發(fā)表于 02-20 13:57 ?925次閱讀

    在MAC mini4上安裝Ollama、Chatbox及模型交互指南

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 一,簡(jiǎn)介 本文將指導(dǎo)您如何在MAC mini4上安裝Ollama和Chatbox,并下載Deepseek-r1:32b模型。Ollama是一個(gè)用于管理和運(yùn)行
    的頭像 發(fā)表于 03-11 17:17 ?583次閱讀
    在MAC mini4上安裝<b class='flag-5'>Ollama</b>、Chatbox及模型交互指南