一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

ORinNano離線部署Deepseek R1大模型教程

ljx2016 ? 來源:ljx2016 ? 作者:ljx2016 ? 2025-04-10 15:32 ? 次閱讀

1. Deepseek簡介

DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型。DeepSeek-R1采用強化學習進行后訓練,旨在提升推理能力,尤其擅長數(shù)學、代碼和自然語言推理等復雜任務。作為國產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術,在全球人工智能領域引發(fā)廣泛關注。

本文主要說明DeepSeek-R1如何離線運行在EASY-EAI-Orin-Nano(RK3576)硬件上, RK3576 具有優(yōu)異的端側AI能效比與極高的性價比,是AI落地的不二之選。

wKgZPGf3dJGANQs8AAKMEq82LEI341.jpgwKgZO2f3dJGAEPrzAA8S8oQ1sJE106.png

2. 開發(fā)環(huán)境搭建

2.1 RKLLM-Toolkit安裝

本節(jié)主要說明如何通過 pip 方式來安裝 RKLLM-Toolkit,用戶可以參考以下的具體流程說明完成 RKLLM-Toolkit 工具鏈的安裝。

工具安裝包鏈接: https://pan.baidu.com/s/1y5ZN5sl4e3HJI5d9Imt4pg?pwd=1234(提取碼: 1234)。

wKgZPGf3dJGAJ09mAAEtI4AlA3g058.jpg

2.1.1 安裝miniforge3工具

為防止系統(tǒng)對多個不同版本的 Python 環(huán)境的需求,建議使用 miniforge3 管理 Python 環(huán)境。 檢查是否安裝 miniforge3 和 conda 版本信息,若已安裝則可省略此小節(jié)步驟。

下載 miniforge3 安裝包:

wget -c https://mirrors.bfsu.edu.cn/github-release/conda-forge/miniforge/LatestRelease/Miniforge3-Linux-x86_64.sh

安裝miniforge3:

chmod 777 Miniforge3-Linux-x86_64.sh
bash Miniforge3-Linux-x86_64.sh

2.1.2 創(chuàng)建 RKLLM-Toolkit Conda 環(huán)境

進入 Conda base 環(huán)境:

source ~/miniforge3/bin/activate

創(chuàng)建一個 Python3.8 版本(建議版本)名為 RKLLM-Toolkit 的 Conda 環(huán)境:

conda create -n RKLLM-Toolkit python=3.8

進入 RKLLM-Toolkit Conda 環(huán)境:

conda activate RKLLM-Toolkit

wKgZO2f3dJGACEiGAACGr3xjCK8314.png

2.1.3 安裝RKLLM-Toolkit

在 RKLLM-Toolkit Conda 環(huán)境下使用 pip 工具直接安裝所提供的工具鏈 whl 包,在安裝過程 中,安裝工具會自動下載 RKLLM-Toolkit 工具所需要的相關依賴包。

pip3 install nvidia_cublas_cu12-12.1.3.1-py3-none-manylinux1_x86_64.whl
pip3 install torch-2.1.0-cp38-cp38-manylinux1_x86_64.whl
pip3 install rkllm_toolkit-1.1.4-cp38-cp38-linux_x86_64.whl

若在安裝的過程中,某些文件安裝很慢,可以登錄python官網(wǎng)單獨下載:

https://pypi.org/

執(zhí)行以下命令沒有報錯,則安裝成功。

wKgZPGf3dJKANl-aAACzdH6ZGzg764.png

3. Deepseek-R1模型轉換

本章主要說明如何實現(xiàn)Deepseek-R1大語言模型如何轉換為RKLLM模型。

wKgZO2f3dJKAF743AACu6FmaZEM101.jpg

3.1 模型與腳本下載

本節(jié)提供兩種大模型文件,Hugging face的原始模型和轉換完成的NPU模型。

wKgZPGf3dJKANJEZAAAspf-Kql4349.png

還有用于模型轉換的腳本:

wKgZO2f3dJKAEi9XAAAgeTAakmY644.png

下載鏈接: https://pan.baidu.com/s/1yLALcGl4jUupU8BZvU9xcA?pwd=1234 (提取碼: 1234)。

3.2 模型轉換

下載完成后模型和腳本放到同一個目錄:

wKgZPGf3dJKAIvzPAACYg6U3Yrg123.png

在RKLLM-Toolkit環(huán)境,執(zhí)行以下指令進行模型轉換:

wKgZO2f3dJOASTXqAAEl_b06QpA717.png

至此模型轉換成功,生成deepseek_w4a16.rkllm NPU化的大模型文件:

wKgZPGf3dJOAATqqAACmyttkt7o723.png

test.py轉換腳本如下所示, 用于轉換deepseek-r1模型:

from rkllm.api import RKLLM
from datasets import load_dataset
from transformers import AutoTokenizer
from tqdm import tqdm
import torch
from torch import nn
import os
# os.environ['CUDA_VISIBLE_DEVICES']='1'


modelpath = '/home/developer/RKLLM-Toolkit/DeepSeek-R1-Distill-Qwen-1.5B'
llm = RKLLM()

# Load model
# Use 'export CUDA_VISIBLE_DEVICES=2' to specify GPU device
# options ['cpu', 'cuda']
ret = llm.load_huggingface(model=modelpath, model_lora = None, device='cpu')
# ret = llm.load_gguf(model = modelpath)
if ret != 0:
    print('Load model failed!')
    exit(ret)

# Build model
dataset = "./data_quant.json"
# Json file format, please note to add prompt in the input,like this:
# [{"input":"Human: 你好!nAssistant: ", "target": "你好!我是人工智能助手KK!"},...]

qparams = None
# qparams = 'gdq.qparams' # Use extra_qparams
ret = llm.build(do_quantization=True, optimization_level=1, quantized_dtype='w4a16',
                quantized_algorithm='normal', target_platform='rk3576', num_npu_core=2, extra_qparams=qparams, dataset=None)

if ret != 0:
    print('Build model failed!')
    exit(ret)

# Chat with model
messages = "<|im_start|?>system You are a helpful assistant.<|im_end|?><|im_start|?>user你好!n<|im_end|?><|im_start|?>assistant"
kwargs = {"max_length": 128, "top_k": 1, "top_p": 0.8,
          "temperature": 0.8, "do_sample": True, "repetition_penalty": 1.1}
# print(llm.chat_model(messages, kwargs))


# Export rkllm model
ret = llm.export_rkllm("./deepseek_r1_rk3576_w4a16.rkllm")
if ret != 0:
print('Export model failed!')

4. Deepseek-R1模型部署

本章主要說明RKLLM格式的NPU模型如何運行在EASY-EAI-Orin-Nano硬件上。

wKgZO2f3dJOALp0SAAAnUhf_Byc762.png

下載鏈接:https://pan.baidu.com/s/1B-DZTI-Q6i__b6Tdsrk_Ow?pwd=1234(提取碼: 1234)。

然后把例程【復制粘貼】到nfs掛載目錄中。(不清楚目錄如何構建的,可以參考《入門指南/開發(fā)環(huán)境準備/nfs服務搭建與掛載》)。特別注意:源碼目錄和模型最好cp到板子上,如/userdata,否則在nfs目錄執(zhí)行大模型會導致模型初始化過慢。

wKgZPGf3dJOAHP_UAACltj5zwfg442.png

進入到開發(fā)板對應的例程目錄執(zhí)行編譯操作,具體命令如下所示:

cd /userdata/deepseek-demo/
./build.sh
wKgZO2f3dJSAU_paAAEmHi_N9ug591.png

4.1 例程運行及效果

進入例程的deepseek-demo/deepseek-demo_release目錄,執(zhí)行下方命令,運行示例程序:

cd deepseek-demo_release/
ulimit -HSn 102400 
./deepseek-demo deepseek_w4a16.rkllm 256 512
wKgZPGf3dJSAemGBAACWWOfr2dg968.png

至此可以進行對話測試了,試著輸入“直角三角形兩直角邊是3和4,斜邊是多少?”?;卮鹑缦滤?

wKgZO2f3dJSAd0gWAAEciJ_SCGQ389.png

4.2 RKLLM算法例程

例程目錄為rkllm-demo/src/main.cpp,操作流程如下。

wKgZPGf3dJSAKuyEAACUr3WjVwc084.jpg

具體代碼如下所示:

#include 
#include 
#include 
#include "rkllm.h"
#include 
#include 
#include 
#include 

#define PROMPT_TEXT_PREFIX "<|im_start|?>system You are a helpful assistant. <|im_end|?> <|im_start|?>user"
#define PROMPT_TEXT_POSTFIX "<|im_end|?><|im_start|?>assistant"


using namespace std;
LLMHandle llmHandle = nullptr;

void exit_handler(int signal)
{
    if (llmHandle != nullptr)
    {
        {
            cout last_hidden_layer.embd_size != 0 && result->last_hidden_layer.num_tokens != 0) {
            int data_size = result->last_hidden_layer.embd_size * result->last_hidden_layer.num_tokens * sizeof(float);
            printf("ndata_size:%d",data_size);
            std::ofstream outFile("last_hidden_layer.bin", std::ios::binary);
            if (outFile.is_open()) {
                outFile.write(reinterpret_cast(result->last_hidden_layer.hidden_states), data_size);
                outFile.close();
                std::cout text);
    }
}

int main(int argc, char **argv)
{
    if (argc < 4) {
        std::cerr 

5. 資料獲取

完整資料包的下載鏈接:https://pan.baidu.com/s/1FY7XHwQydqRPuTxdQezhyw?pwd=1234(提取碼:1234)。

wKgZO2f3dJWAddihAAARxLht0wE180.png

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 大模型
    +關注

    關注

    2

    文章

    2941

    瀏覽量

    3683
  • rk3576
    +關注

    關注

    1

    文章

    91

    瀏覽量

    482
  • DeepSeek
    +關注

    關注

    1

    文章

    755

    瀏覽量

    1051
收藏 人收藏

    評論

    相關推薦

    RK3588開發(fā)板上部署DeepSeek-R1模型的完整指南

    DeepSeek作為國產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術,在全球人工智能領域引發(fā)廣泛關注。DeepSeek-R1作為該系列最新迭代版本,實現(xiàn)了長文本處理效能躍遷、多模態(tài)
    發(fā)表于 02-27 16:45

    9.9萬元用上“滿血”DeepSeek R1一體機,本地部署成新商機?引發(fā)外媒熱議

    與本地部署的熱潮 DeepSeek R1作為一款強大的AI大模型,其本地部署能夠帶來諸多優(yōu)勢,如保護數(shù)據(jù)安全和隱私、避免核心數(shù)據(jù)傳輸至第三方
    的頭像 發(fā)表于 02-27 09:20 ?1227次閱讀

    兆芯全面部署DeepSeek R1模型

    近日,基于兆芯高性能通用處理器的PC終端、工作站以及服務器成功實現(xiàn)DeepSeek-R1-Distill模型(1.5B/7B/32B/70B/671B等)的本地部署,在保證推理效率的同時,能夠提供靈活的算力選擇,以滿足不同規(guī)模和
    的頭像 發(fā)表于 02-25 13:45 ?357次閱讀

    研華發(fā)布昇騰AI Box及Deepseek R1模型部署流程

    近日,隨著深度求索(DeepSeek)大模型的發(fā)布在行業(yè)內(nèi)掀起熱議,研華科技正式推出了基于昇騰Atlas平臺的邊緣AI Box MIC-ATL3S,并同步發(fā)布了與Deepseek R1
    的頭像 發(fā)表于 02-19 10:41 ?384次閱讀

    重磅發(fā)布 | 矽速 M4N Dock 支持 DeepSeek R1,端側大模型部署新標桿!

    01性能炸裂速度領先RK358815%,性能直逼OrinNano!久等了!矽速M4NDock(愛芯派Pro,AX650N)已支持部署DeepSeekR1模型,實測運行速度超越RK35
    的頭像 發(fā)表于 02-18 15:35 ?500次閱讀
    重磅發(fā)布 | 矽速 M4N Dock 支持 <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>,端側大<b class='flag-5'>模型</b><b class='flag-5'>部署</b>新標桿!

    研華邊緣AI Box MIC-ATL3S部署Deepseek R1模型

    隨著深度求索(DeepSeek)大模型的發(fā)布引發(fā)行業(yè)熱議,研華科技基于昇騰Atlas平臺邊緣AI Box MIC-ATL3S正式發(fā)布與Deepseek R1
    的頭像 發(fā)表于 02-14 16:08 ?872次閱讀
    研華邊緣AI Box MIC-ATL3S<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b><b class='flag-5'>模型</b>

    IBM在watsonx.ai平臺推出DeepSeek R1蒸餾模型

    ,進一步增強企業(yè)在安全、治理以及規(guī)?;?b class='flag-5'>部署方面的能力。 DeepSeek R1是IBM在AI領域的一項重要創(chuàng)新,它采用了蒸餾模型技術,能夠在保持模型
    的頭像 發(fā)表于 02-14 10:21 ?366次閱讀

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇

    ); 二者均支持API調用,可根據(jù)業(yè)務需求混合部署(如用V3處理前端交互,R1負責后端計算)。 在電子工程領域選用哪個模型最合適,有其他更好的模型推薦嗎? 在電子工程領域的電路設計與
    發(fā)表于 02-14 02:08

    超星未來驚蟄R1芯片適配DeepSeek-R1模型

    日前,超星未來研發(fā)團隊成功完成了驚蟄R1芯片對DeepSeek-R1模型的適配工作,實現(xiàn)了與用戶之間的流暢對話。這一成果標志著超星未來在人工智能芯片和模型優(yōu)化方面取得了重要進展
    的頭像 發(fā)表于 02-13 14:05 ?451次閱讀

    Deepseek R1模型離線部署教程

    。作為國產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術,在全球人工智能領域引發(fā)廣泛關注。 本文主要說明DeepSeek-R1如何離線運行在EASY-EAI-Orin-Nano(RK3576)硬件上, RK357
    的頭像 發(fā)表于 02-12 09:37 ?1382次閱讀
    <b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b><b class='flag-5'>離線</b><b class='flag-5'>部署</b>教程

    Gitee AI 聯(lián)合沐曦首發(fā)全套 DeepSeek R1 千問蒸餾模型,全免費體驗!

    模型相比,較小尺寸的 DeepSeek 蒸餾版本模型 更適合企業(yè)內(nèi)部實施部署,可以極大的降低落地成本 。 同時,這次 Deepseek
    的頭像 發(fā)表于 02-10 09:56 ?431次閱讀
    Gitee AI 聯(lián)合沐曦首發(fā)全套 <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> 千問蒸餾<b class='flag-5'>模型</b>,全免費體驗!

    部署DeepSeek R1于AX650N與AX630C平臺

    適配 DeepSeek R1 系列模型的最新進展,向業(yè)界對端側大模型部署的開發(fā)者提供一種新的思路,促進社區(qū)對端側大
    的頭像 發(fā)表于 02-09 09:32 ?764次閱讀
    <b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>于AX650N與AX630C平臺

    壁仞科技順利部署DeepSeek R1千問蒸餾模型

    DeepSeek 的國內(nèi)算力支持隊伍進一步壯大:來自上海的壁仞科技順利部署DeepSeek-R1-Distill千問蒸餾模型(1.5B/7B/14B/32B),并已上線 Gitee A
    的頭像 發(fā)表于 02-08 16:56 ?1247次閱讀

    扣子平臺支持DeepSeek R1與V3模型

    近日,新一代AI應用搭建平臺“扣子”宣布了一項重要更新,即正式支持DeepSeekR1和V3模型,并向廣大用戶開放免費體驗。 扣子平臺一直以來都致力于為用戶提供便捷、高效的AI應用搭建服務,幫助
    的頭像 發(fā)表于 02-08 13:42 ?809次閱讀

    云天勵飛上線DeepSeek R1系列模型

    -Distill-Llama-70B大模型、DeepSeek V3/R1 671B MoE大模型也在有序適配中。適配完成后,DeepEdge10芯片平臺將在端、邊、云全面支持
    的頭像 發(fā)表于 02-06 10:39 ?520次閱讀
    云天勵飛上線<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列<b class='flag-5'>模型</b>