一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

4臺樹莓派5跑動大模型!DeepSeek R1分布式實戰(zhàn)!

上海晶珩電子科技有限公司 ? 2025-03-24 14:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導語

“用4臺樹莓派5組網(wǎng),輕松運行大模型——這可能是2025年最顛覆認知的開源AI項目!” GitHub明星項目distributed-llama最新實戰(zhàn)案例曝光:通過獨創(chuàng)的動態(tài)模型切片技術,成功在4臺樹莓派5(8GB內存)上運行DeepSeek R1 Distill 8B模型,推理速度達6.43 tokens/s,功耗僅20W!本文將深入解析: 樹莓派集群的核心技術架構 | 零門檻部署全流程 | 社區(qū)實測性能報告 文末附樹莓派專用配置模板,讓舊設備秒變AI算力節(jié)點!

項目背景

distributed-llama是由開發(fā)者 Bart?omiej Tadych 發(fā)起的一項開源倡議,旨在通過分布式計算技術,將家庭閑置設備(如樹莓派、舊筆記本、手機等)轉化為高效的 AI 推理集群,從而大幅降低運行百億參數(shù)大模型的門檻。

為何需要分布式LLM?

傳統(tǒng)的大語言模型(如Llama、DeepSeek)推理嚴重依賴高端顯卡(如NVIDIA A100/H100),硬件成本高昂且能效比低下。而分布式LLM通過 動態(tài)模型切片 和 跨設備協(xié)同計算,將單一設備的算力需求分散到多臺設備,實現(xiàn):

低成本:利用閑置設備的算力“邊角料”替代昂貴顯卡

高擴展性:通過增加節(jié)點數(shù)量線性提升推理速度

跨平臺兼容:支持從樹莓派(ARM)到舊x86設備的混合組網(wǎng)

核心突破

項目自2024年發(fā)布以來,通過 Tensor并行架構 和 Q80浮點壓縮技術,成功將多個開源大模型部署到樹莓派5,MAC電腦,PC組成的集群中。

46237eb0-087c-11f0-9434-92fbcf53809c.png

技術解析

1.動態(tài)模型切片

自動負載均衡:根據(jù)設備數(shù)量(需滿足2^n)將模型拆分為獨立計算單元

樹莓派專屬優(yōu)化:針對ARM架構優(yōu)化算子,CPU利用率提升40%

內存壓縮技術:Q80浮點格式使單節(jié)點內存占用降低至2.4GB(原模型6.32GB)

2.高效通信協(xié)議

低延遲同步:千兆以太網(wǎng)下KV Cache同步延遲<60ms

容錯機制:任意節(jié)點掉線自動觸發(fā)計算任務重分配

3.散熱方案:

加裝Pi5散熱風扇(樹莓派5滿負載溫度可降低15℃)

46409c16-087c-11f0-9434-92fbcf53809c.jpg

項目展示

Model:deepseek_r1_distill_llama_8b_q40

Version:0.12.2

4656ff6a-087c-11f0-9434-92fbcf53809c.png

2 xRaspberry Pi5 8GB

...P 278ms S 288kB R 522kB FirstP 258ms S 288kB R 522kB ,P 323ms S 288kB R 522kB IP 275ms S 288kB R 522kB needP 293ms S 288kB R 522kB toP 269ms S 288kB R 522kB understandP 281ms S 288kB R 522kB whatEvaluation nBatches:32 nTokens:19 tokens/s:7.70(129.89ms/tok)Prediction nTokens:77 tokens/s:3.54(282.22ms/tok) Network is closed

4 xRaspberry Pi5 8GB

...P 162ms S 864kB R 1191kB TheP 160ms S 864kB R 1191kB MultiP 157ms S 864kB R 1191kB -P 176ms S 864kB R 1191kB DeviceP 130ms S 864kB R 1191kB InP 174ms S 864kB R 1191kB ferenceP 132ms S 864kB R 1191kB ClusterP 172ms S 864kB R 1191kB (P 139ms S 864kB R 1191kB MDP 184ms S 864kB R 1191kB ICP 162ms S 864kB R 1191kB )P 156ms S 864kB R 1191kB isEvaluation nBatches:32 nTokens:19 tokens/s:11.68(85.63ms/tok)Prediction nTokens:77 tokens/s:6.43(155.60ms/tok) Network is closed

結語

“當樹莓派集群遇見分布式AI,算力民主化的大門正在打開!”在評論區(qū)參與討論,看看你對分布式計算的想法吧。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 樹莓派
    +關注

    關注

    121

    文章

    2009

    瀏覽量

    107479
  • DeepSeek
    +關注

    關注

    1

    文章

    798

    瀏覽量

    1752
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇

    DeepSeek-V3 和 DeepSeek-R1 是深度求索公司(DeepSeek)推出的兩個不同定位的大模型,其核心差異主要體現(xiàn)在目標場景、能力側重和技術優(yōu)化方向上。以下是二者的實
    發(fā)表于 02-14 02:08

    RK3588開發(fā)板上部署DeepSeek-R1模型的完整指南

    的核心功能之一,它允許用戶將Hugging Face或GGUF格式的大語言模型轉換為RKLLM模型,從而將RKLLM模型在Rockchip NPU上加載運行。 (4)編譯
    發(fā)表于 02-27 16:45

    香蕉 BPI-M1R1

    與kernel,Uboot 2015.01版本,Linux內核版本:Kernel 3.19-rc52.支持uboot HDMI顯示,加快啟動速度.3.支持BPI-R1 BPI-M14.直接支持BPI-R1上switch 交換芯片與wifi模塊,驅動完全支持
    發(fā)表于 02-11 11:24

    CMD244K5分布式放大器

    `CMD244K5分布式放大器產品介紹CMD244K5詢價熱線CMD244K5現(xiàn)貨CMD244K5代理王先生15989509955深圳市立年
    發(fā)表于 02-13 15:14

    樹莓帶你掌握嵌入linux產品實戰(zhàn)開發(fā)

    樹莓帶你掌握嵌入linux產品實戰(zhàn)開發(fā)–我們實戰(zhàn)開發(fā)的paipai one設備介紹附原理圖(三)本文非作者授權,禁止轉載2020年8月
    發(fā)表于 11-05 06:39

    樹莓(Raspberry Pi)實戰(zhàn)指南.pdf

    樹莓實戰(zhàn)指南
    發(fā)表于 05-07 15:17 ?130次下載

    云天勵飛上線DeepSeek R1系列模型

    -Distill-Llama-70B大模型、DeepSeek V3/R1 671B MoE大模型也在有序適配中。適配完成后,DeepEdge10芯片平臺將在端、邊、云全面支持
    的頭像 發(fā)表于 02-06 10:39 ?678次閱讀
    云天勵飛上線<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列<b class='flag-5'>模型</b>

    扣子平臺支持DeepSeek R1與V3模型

    近日,新一代AI應用搭建平臺“扣子”宣布了一項重要更新,即正式支持DeepSeekR1和V3模型,并向廣大用戶開放免費體驗。 扣子平臺一直以來都致力于為用戶提供便捷、高效的AI應用搭建服務,幫助
    的頭像 發(fā)表于 02-08 13:42 ?1122次閱讀

    Deepseek R1模型離線部署教程

    DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型 。DeepSeek-R1采用強化學習進行后訓練,旨在提升推理能力,尤其擅長數(shù)學、代碼和自然語言
    的頭像 發(fā)表于 02-12 09:37 ?1779次閱讀
    <b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>離線部署教程

    DeepSeek4J開源:高效解決DeepSeek R1集成挑戰(zhàn)

    隨著 DeepSeek R1 模型的發(fā)布,其強大的思維鏈能力讓開發(fā)者為之興奮。然而,Spring AI 等主流框架對其支持不足,導致很多開發(fā)者無法充分發(fā)揮模型潛力。本文將為您帶來一個完
    的頭像 發(fā)表于 02-12 11:33 ?1279次閱讀
    <b class='flag-5'>DeepSeek4</b>J開源:高效解決<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>集成挑戰(zhàn)

    超星未來驚蟄R1芯片適配DeepSeek-R1模型

    日前,超星未來研發(fā)團隊成功完成了驚蟄R1芯片對DeepSeek-R1模型的適配工作,實現(xiàn)了與用戶之間的流暢對話。這一成果標志著超星未來在人工智能芯片和模型優(yōu)化方面取得了重要進展
    的頭像 發(fā)表于 02-13 14:05 ?684次閱讀

    OpenAI O3與DeepSeek R1:推理模型性能深度分析

    OpenAI剛推出的O3和DeepSeekR1代表了推理模型領域的重大進步。這兩種模型都因在各種基準測試中的出色表現(xiàn)而備受關注,引發(fā)了人們對人工智能的未來及其對各個行業(yè)的潛在影響的討
    的頭像 發(fā)表于 02-18 11:07 ?949次閱讀

    ORinNano離線部署Deepseek R1模型教程

    ORinNano離線部署Deepseek R1模型教程
    的頭像 發(fā)表于 04-10 15:32 ?497次閱讀
    ORinNano離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>教程

    DeepSeek開源新版R1 媲美OpenAI o3

    ;還有一些網(wǎng)友的實測評價都顯示,?DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性價比的平替。 此外,關于DeepSeek
    的頭像 發(fā)表于 05-29 11:23 ?469次閱讀

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型
    的頭像 發(fā)表于 05-13 17:07 ?830次閱讀
    瑞薩RZ/V2H平臺支持部署離線版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大語言<b class='flag-5'>模型</b>