一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何本地部署大模型

openEuler ? 來源:openEuler ? 2023-10-18 11:48 ? 次閱讀

近期,openEuler A-Tune SIG在openEuler 23.09版本引入llama.cpp&chatglm-cpp兩款應(yīng)用,以支持用戶在本地部署和使用免費(fèi)的開源大語言模型,無需聯(lián)網(wǎng)也能使用!

大語言模型(Large Language Model, LLM)是一種人工智能模型,旨在理解和生成人類語言。它們?cè)诖罅康奈谋緮?shù)據(jù)上進(jìn)行訓(xùn)練,可以執(zhí)行廣泛的任務(wù),包括文本總結(jié)、翻譯、情感分析等等。openEuler通過集成llama.cpp&chatglm-cpp兩款應(yīng)用,降低了用戶使用大模型的門檻,為Build openEuler with AI, for AI, by AI打下堅(jiān)實(shí)基礎(chǔ)。

openEuler技術(shù)委員會(huì)主席胡欣慰在OSSUMMIT 2023中的演講

應(yīng)用簡介

1. llama.cpp是基于C/C++實(shí)現(xiàn)的英文大模型接口,支持LLaMa/LLaMa2/Vicuna等開源模型的部署;

2. chatglm-cpp是基于C/C++實(shí)現(xiàn)的中文大模型接口,支持ChatGlm-6B/ChatGlm2-6B/Baichuan-13B等開源模型的部署。

應(yīng)用特性

這兩款應(yīng)用具有以下特性:

1. 基于ggml的C/C++實(shí)現(xiàn);

2. 通過int4/int8等多種量化方式,以及優(yōu)化KV緩存和并行計(jì)算等手段實(shí)現(xiàn)高效的CPU推理;

3. 無需 GPU,可只用 CPU 運(yùn)行。

使用指南

用戶可參照下方的使用指南,在openEuler 23.09版本上進(jìn)行大模型嘗鮮體驗(yàn)。

llama.cpp使用指南如下圖所示:

e18a53e4-5def-11ee-939d-92fbcf53809c.png

llama.cpp使用指南

正常啟動(dòng)界面如下圖所示:

e19e0fe2-5def-11ee-939d-92fbcf53809c.png

LLaMa啟動(dòng)界面

2. chatlm-cpp使用指南如下圖所示:

e1b596e4-5def-11ee-939d-92fbcf53809c.png

chatlm-cpp使用指南

正常啟動(dòng)界面如下圖所示:

e1dda59e-5def-11ee-939d-92fbcf53809c.png

ChatGLM啟動(dòng)界面

規(guī)格說明

這兩款應(yīng)用都可以支持在CPU級(jí)別的機(jī)器上進(jìn)行大模型的部署和推理,但是模型推理速度對(duì)硬件仍有一定的要求,硬件配置過低可能會(huì)導(dǎo)致推理速度過慢,降低使用效率。

以下是模型推理速度的測試數(shù)據(jù)表格,可作為不同機(jī)器配置下推理速度的參考。

表格中Q4_0,Q4_1,Q5_0,Q5_1代表模型的量化精度;ms/token代表模型的推理速度,含義為每個(gè)token推理耗費(fèi)的毫秒數(shù),該值越小推理速度越快;

e1f9e1aa-5def-11ee-939d-92fbcf53809c.png

表1 LLaMa-7B測試表格

e2079b10-5def-11ee-939d-92fbcf53809c.png

表2 ChatGLM-6B測試表格

歡迎用戶下載體驗(yàn),玩轉(zhuǎn)開源大模型,近距離感受AI帶來的技術(shù)革新!

感謝LLaMa、ChatGLM等提供開源大模型等相關(guān)技術(shù),感謝開源項(xiàng)目llama.cpp&chatglm-cpp提供模型輕量化部署等相關(guān)技術(shù)。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48449

    瀏覽量

    245069
  • C++
    C++
    +關(guān)注

    關(guān)注

    22

    文章

    2116

    瀏覽量

    74587
  • openEuler
    +關(guān)注

    關(guān)注

    2

    文章

    324

    瀏覽量

    6202
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2941

    瀏覽量

    3685
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    316

    瀏覽量

    645

原文標(biāo)題:手把手帶你玩轉(zhuǎn)openEuler | 如何本地部署大模型

文章出處:【微信號(hào):openEulercommunity,微信公眾號(hào):openEuler】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    K230D部署模型失敗的原因?

    MicroPython部署的無法正常運(yùn)行,采用C++版本的無法實(shí)現(xiàn)部署 嘗試解決過程 1.考慮到可能是固件不匹配的問題,重新燒錄了流程(生成模型后給的readme)中要求的固件,依舊無法成功
    發(fā)表于 03-11 06:19

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    模型
    jf_23871869
    發(fā)布于 :2024年11月18日 19:40:10

    介紹在STM32cubeIDE上部署AI模型的系列教程

    介紹在STM32cubeIDE上部署AI模型的系列教程,開發(fā)板型號(hào)STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開發(fā)】篇四|部署篇:STM32cubeIDE上部署
    發(fā)表于 12-14 09:05

    部署基于嵌入的機(jī)器學(xué)習(xí)模型

    1、如何在生產(chǎn)中部署基于嵌入的機(jī)器學(xué)習(xí)模型  由于最近大量的研究,機(jī)器學(xué)習(xí)模型的性能在過去幾年里有了顯著的提高。雖然這些改進(jìn)的模型開辟了新的可能性,但是它們只有在可以
    發(fā)表于 11-02 15:09

    本地化ChatGPT?Firefly推出基于BM1684X的大語言模型本地部署方案

    API的方式來應(yīng)用,很難本地部署。隨著大模型適用領(lǐng)域的擴(kuò)展,大模型登陸邊緣設(shè)備的需求凸顯,越來越多的行業(yè)需要把大語言模型應(yīng)用在專業(yè)的領(lǐng)域上
    的頭像 發(fā)表于 09-09 08:02 ?1942次閱讀
    <b class='flag-5'>本地</b>化ChatGPT?Firefly推出基于BM1684X的大語言<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>方案

    AI PC風(fēng)潮來臨,2027年達(dá)到81%,成為PC市場主流

    結(jié)合聯(lián)想聯(lián)合IDC發(fā)布的首個(gè)AI PC產(chǎn)業(yè)白皮書,我們了解到AI PC不僅僅是傳統(tǒng)硬件,更是涵蓋了AI模型及應(yīng)用的綜合性設(shè)備。AI PC具備本地部署的大模型和個(gè)人
    的頭像 發(fā)表于 12-13 09:38 ?651次閱讀

    源2.0適配FastChat框架,企業(yè)快速本地部署模型對(duì)話平臺(tái)

    北京2024年2月28日?/美通社/ -- 近日,浪潮信息Yuan2.0大模型與FastChat框架完成全面適配,推出"企業(yè)快速本地部署模型對(duì)話平臺(tái)"方案。該方案主要面向金融、法律
    的頭像 發(fā)表于 02-29 09:57 ?1113次閱讀
    源2.0適配FastChat框架,企業(yè)快速<b class='flag-5'>本地</b>化<b class='flag-5'>部署</b>大<b class='flag-5'>模型</b>對(duì)話平臺(tái)

    llm模型本地部署有用嗎

    ,將這些模型部署本地環(huán)境可能會(huì)帶來一些挑戰(zhàn)和優(yōu)勢(shì)。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-09 10:14 ?947次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個(gè)開源的大語言模型服務(wù)工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運(yùn)行過程,請(qǐng)參考《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》
    的頭像 發(fā)表于 11-23 17:22 ?3276次閱讀
    用Ollama輕松搞定Llama 3.2 Vision<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>

    華為ModelEngine助力DeepSeek全系列本地部署

    自然語言處理、圖像識(shí)別等方面具有顯著優(yōu)勢(shì)。通過ModelEngine AI平臺(tái)的本地部署與優(yōu)化,這些模型能夠更高效地運(yùn)行在各種設(shè)備上,從而加速AI應(yīng)用的開發(fā)和部署進(jìn)程。 華為此次的舉措
    的頭像 發(fā)表于 02-07 10:27 ?577次閱讀

    DeepSeek R1模型本地部署與產(chǎn)品接入實(shí)操

    針對(duì)VS680/SL1680系列大算力芯片,我們的研發(fā)團(tuán)隊(duì)正在研究將蒸餾后的輕量級(jí)DeepSeek模型(DeepSeek-R1-Distill-Qwen-1.5B)部署到SOC本地,以便應(yīng)用于相關(guān)
    的頭像 發(fā)表于 04-19 16:32 ?116次閱讀
    DeepSeek R1<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>與產(chǎn)品接入實(shí)操

    華為云發(fā)布DeepSeek本地部署方案

    華為云正式推出基于華為云Stack混合云的DeepSeek本地部署方案。
    的頭像 發(fā)表于 02-18 10:05 ?794次閱讀

    曙光順利完成DeepSeek大模型本地化多點(diǎn)私有部署

    計(jì)算中心等政務(wù)云服務(wù)商,依托本地政務(wù)云資源池,順利完成DeepSeek大模型本地化多點(diǎn)私有部署,并打造出數(shù)字人“撫小智”。撫州市還計(jì)劃將DeepSeek大
    的頭像 發(fā)表于 02-22 14:16 ?634次閱讀

    行芯完成DeepSeek-R1大模型本地部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地部署,實(shí)現(xiàn)在多場景、多產(chǎn)品中應(yīng)用。解鎖“芯”玩法,開啟“芯”未來!
    的頭像 發(fā)表于 02-24 15:17 ?476次閱讀

    博實(shí)結(jié)完成DeepSeek大模型本地部署

    近日,公司完成DeepSeek R1 671B大模型本地部署。通過構(gòu)建自主可控的AI基礎(chǔ)設(shè)施,公司同步實(shí)現(xiàn)研發(fā)智能升級(jí)、研發(fā)成本重構(gòu)、數(shù)據(jù)安全閉環(huán)與應(yīng)用場景突破,為產(chǎn)業(yè)智能化賦能。
    的頭像 發(fā)表于 03-19 16:31 ?449次閱讀