一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

100%在樹莓派上執(zhí)行的LLM項目

jf_cVC5iyAO ? 來源:易心Microbit編程 ? 2024-02-29 16:29 ? 次閱讀

ChatGPT的人性口語化回復(fù)相信許多人已體驗過,也因此掀起一波大型語言模型(Large Language Model, LLM)熱潮,LLM即ChatGPT背后的主運(yùn)作技術(shù),但LLM運(yùn)作需要龐大運(yùn)算力,因此目前多是在云端(Cloud)上執(zhí)行。

然而在云端執(zhí)行也有若干缺點,一是Internet斷線時無法使用;二是或多或少會泄漏個資隱私;三是上傳的話語內(nèi)容會被審查,但審查標(biāo)準(zhǔn)難以捉摸,且已有諸多矯枉過正的案例;四是因為模型已放在云端與人共享,也可能已被他人誤導(dǎo),俗稱模型被教壞了。

所以有些人也希望LLM能在本地端(Local)、本機(jī)端執(zhí)行,如此就不怕斷線、泄漏隱私、內(nèi)容審查、誤導(dǎo)等缺點。但要能在本地端執(zhí)行,其LLM就不能太大,目前已經(jīng)有諸多信息技術(shù)專家提出各種嘗試,期望能將云端的LLM輕量化、減肥減肥,以便能在運(yùn)算力有限的本機(jī)端執(zhí)行。

全世界最簡單的類GPT語音助理

對此已有創(chuàng)客發(fā)起項目,項目名就叫World’s Easiest GPT-like Voice Assistant,即世界上最簡單的類GPT語音助理,以此實現(xiàn)完全在本機(jī)端執(zhí)行的GPT語音服務(wù),不需要任何Internet聯(lián)機(jī)。

至于具體技術(shù)作法,首先是找一片樹莓派單板計算機(jī),例如RPi 4,然后裝上麥克風(fēng)與喇叭,成為語音互動對話的輸入輸出,而后安裝Whisper這套軟件,可以將麥克風(fēng)接收到的語音轉(zhuǎn)成文字,文字喂給LLM。

LLM接收輸入后進(jìn)行推論處理,處理后的結(jié)果以文字輸出,輸出的文字則透過另一個安裝軟件進(jìn)行轉(zhuǎn)化,即eSpeak,把文字轉(zhuǎn)成語音后,再透過喇叭發(fā)聲回復(fù)。

TinyLlama-1.1B模型來實現(xiàn)類GPT語音助理項目

麥克風(fēng)與喇叭只是末梢,重點是在LLM,哪來的輕量型、本機(jī)端執(zhí)行的LLM?答案是llamafile項目,這個項目將LLM打包成單一個檔案,如此可方便地分發(fā)(分發(fā)distribute,通俗而言指可以輕易地下載文件、傳遞分享檔案)與執(zhí)行,項目發(fā)起者運(yùn)用llamafile項目中的TinyLlama-1.1B模型來實現(xiàn)類GPT語音助理。

b27941ae-d6db-11ee-a297-92fbcf53809c.png

圖3 llamafile項目官網(wǎng)畫面(圖片來源:GitHub)

TinyLlama-1.1B確實是一個嬌小的LLM,以GPT-3而言就有175B,B即Billion指的是10億,LLM的大小通常以參數(shù)數(shù)目為準(zhǔn),1,750億個參數(shù)的LLM已相當(dāng)龐大,需要對應(yīng)強(qiáng)大的運(yùn)算力才能順暢執(zhí)行。

其他龐大的LLM還有MT-NLG,有5,300億個參數(shù),或5,400億個的PaLM等,都難以下放到本機(jī)端執(zhí)行,本機(jī)端很難有對應(yīng)強(qiáng)大的運(yùn)算力來跑模型。而TinyLlama-1.1B顧名思義只有11億個參數(shù),參數(shù)大大減少下,本機(jī)端是有足夠運(yùn)算力執(zhí)行該模型。

b29b6400-d6db-11ee-a297-92fbcf53809c.png

圖4 llamafile項目提供多種預(yù)訓(xùn)練模型,目前以TinyLlama-1.1B最小,僅760MB(圖片來源:GitHub)

當(dāng)然,上述所言均是預(yù)訓(xùn)練模型(Pre-Train Model),或近期常稱為基礎(chǔ)模型(Foundation Model, FM),后續(xù)還是可以依據(jù)個人需要再行訓(xùn)練與調(diào)整,以便有更精準(zhǔn)、更切合需求的推論結(jié)果。

這個類GPT語音助理項目完成上述后,實際測試的結(jié)果是,多數(shù)的發(fā)話詢問后需要15秒左右的時間才能回復(fù),復(fù)雜的詢問則要更久的時間。有人可以等或覺得這時間還可以,若覺得太慢或許可以改用運(yùn)算力更強(qiáng)的RPi 5單板計算機(jī),可能可以快一點。

值得注意的是,這個項目不是用語音關(guān)鍵詞(如Hey! Siri或OK! Google)來喚醒助理,而是設(shè)置一個按鈕,按下去后才讓樹莓派開始接收語音詢問。

另外,這整個項目用的都是開放源代碼及免授權(quán)費(fèi)的軟件與模型,所以實現(xiàn)成本大概只有單板計算機(jī)、喇叭、麥克風(fēng)、按鈕等硬件而已。

其他技術(shù)細(xì)節(jié)包含llamafile與Raspberry Pi OS不兼容,所以在樹莓派上是改安裝Ubuntu Linux,更具體而言是64位的Ubuntu Server 22.04.3 LTS。另外,當(dāng)然也要安裝Python才能操控樹莓派的GPIO接腳,從而能讀取按鈕狀態(tài)(是否被按下)。

小結(jié)

最后,這肯定不是第一個也不是最后一個LLM本地端化的嘗試,各種嘗試正前仆后繼地進(jìn)行著,有的是提供壓縮工具將原本肥大的LLM加以縮小,有的干脆是原生訓(xùn)練出輕量的LLM,現(xiàn)階段可謂是百家爭鳴。

而筆者個人的看法,1.1B的LLM已經(jīng)很小,或許未來可以更小,但現(xiàn)階段可能改用更強(qiáng)的硬件會更務(wù)實,例如使用有GPU的桌面計算機(jī),或給樹莓派加裝AI硬件加速器等,以便讓類GPT語音助理更快速響應(yīng)。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • GPIO
    +關(guān)注

    關(guān)注

    16

    文章

    1238

    瀏覽量

    53309
  • 硬件加速器
    +關(guān)注

    關(guān)注

    0

    文章

    42

    瀏覽量

    12956
  • 樹莓派
    +關(guān)注

    關(guān)注

    120

    文章

    1906

    瀏覽量

    106702
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    316

    瀏覽量

    641

原文標(biāo)題:不怕脫機(jī)!100%在樹莓派上執(zhí)行的LLM項目

文章出處:【微信號:易心Microbit編程,微信公眾號:易心Microbit編程】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    樹莓派GUI應(yīng)用開發(fā):從零到炫酷的魔法之旅!

    各位樹莓派的粉絲們!今天我要帶你們踏上一段神奇的旅程——探索樹莓派上GUI應(yīng)用的無限可能!你是不是覺得樹莓派只能用來跑跑服務(wù)器、做個簡單的項目
    的頭像 發(fā)表于 04-04 09:03 ?314次閱讀
    <b class='flag-5'>樹莓</b>派GUI應(yīng)用開發(fā):從零到炫酷的魔法之旅!

    樹莓派上構(gòu)建和部署 Node.js 項目

    探索RaspberryPi上構(gòu)建和部署Node.js項目的最佳實踐。通過我們的專業(yè)提示和技巧,克服常見挑戰(zhàn),使您的項目順利運(yùn)行。去年圣誕節(jié),我收到了一份極其令人著迷的禮物,它占據(jù)了我許多周末的時間
    的頭像 發(fā)表于 03-25 09:44 ?123次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>樹莓</b><b class='flag-5'>派上</b>構(gòu)建和部署 Node.js <b class='flag-5'>項目</b>

    超酷的樹莓派智能鏡項目,快來了解!

    嘿,寶子們!今天給大家分享一些超厲害的樹莓派智能鏡項目。這個鏈接里有8個目前為止我們見過的最好的樹莓派智能鏡項目。每一個項目都有其獨(dú)特的魅力
    的頭像 發(fā)表于 03-25 09:33 ?228次閱讀
    超酷的<b class='flag-5'>樹莓</b>派智能鏡<b class='flag-5'>項目</b>,快來了解!

    樹莓派云OS哪個最受歡迎?來看看Github Star 28.9k的項目

    本文討論了樹莓派上使用的熱門開源云OSCasaOS,介紹了其特點、安裝與使用方法、作者體驗及總結(jié)評價等內(nèi)容。關(guān)鍵要點包括:1.CasaOS簡介:它基于Docker生態(tài)系統(tǒng)構(gòu)建,像指揮家整合自托管
    的頭像 發(fā)表于 03-25 09:21 ?216次閱讀
    <b class='flag-5'>樹莓</b>派云OS哪個最受歡迎?來看看Github Star 28.9k的<b class='flag-5'>項目</b>!

    樹莓派上設(shè)置 DeepSeek R1:2025 年離線人工智能的未來

    概述《樹莓派上設(shè)置DeepSeekR1:2025年離線人工智能的未來》是一份前瞻性技術(shù)指南,聚焦中國AI初創(chuàng)公司DeepSeek于2023年底推出的開源模型DeepSeekR1。該模型旨在通過提供
    的頭像 發(fā)表于 03-25 09:20 ?429次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>樹莓</b><b class='flag-5'>派上</b>設(shè)置 DeepSeek R1:2025 年離線人工智能的未來

    不要等Manus的邀請碼了,樹莓派上也能實現(xiàn) AI Agent !

    本文討論了Manus、OpenManus、CrewAI這三款A(yù)IAgent產(chǎn)品的特點、適用場景,并重點介紹了如何用CrewAI樹莓派上運(yùn)行多LLM代理,還探討了AIAgent發(fā)展帶來
    的頭像 發(fā)表于 03-25 09:19 ?430次閱讀
    不要等Manus的邀請碼了,<b class='flag-5'>樹莓</b><b class='flag-5'>派上</b>也能實現(xiàn) AI Agent !

    人臉識別指南:如何在樹莓派上安裝和設(shè)置 Dlib

    學(xué)習(xí)如何在樹莓派上安裝Dlib并配置人臉識別功能,為您的AI項目奠定基礎(chǔ)。樹莓派上安裝Dlib
    的頭像 發(fā)表于 03-24 17:31 ?421次閱讀
    人臉識別指南:如何在<b class='flag-5'>樹莓</b><b class='flag-5'>派上</b>安裝和設(shè)置 Dlib

    無法OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?

    無法 OVMS 上運(yùn)行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運(yùn)行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07

    GPIO樹莓派中的應(yīng)用

    樹莓派(Raspberry Pi)是一款由英國樹莓派基金會開發(fā)的信用卡大小的單板計算機(jī),它具有強(qiáng)大的功能和靈活性,可以用于各種項目和應(yīng)用。通用輸入輸出(GPIO)是樹莓派的一個重要特性
    的頭像 發(fā)表于 01-09 09:41 ?589次閱讀

    樹莓派跑LLM難上手?也許你可以試試Intel哪吒開發(fā)板

    的興起,現(xiàn)在有潛力更小巧、便攜的設(shè)備上部署這些模型。例如,Raspberry Pi 樹莓派和 Intel 哪吒開發(fā)套件等單片機(jī)。盡管體積小巧,但它們具備足夠的能力運(yùn)行某些精簡版本的模型。本文就兩款單片機(jī)上運(yùn)行LLM做一個對比,
    的頭像 發(fā)表于 12-02 09:43 ?924次閱讀
    <b class='flag-5'>樹莓</b>派跑<b class='flag-5'>LLM</b>難上手?也許你可以試試Intel哪吒開發(fā)板

    什么是LLM?LLM自然語言處理中的應(yīng)用

    所未有的精度和效率處理和生成自然語言。 LLM的基本原理 LLM基于深度學(xué)習(xí)技術(shù),尤其是變換器(Transformer)架構(gòu)。變換器模型因其自注意力(Self-Attention)機(jī)制而聞名,這種機(jī)制使得模型能夠捕捉文本中的長距離依賴關(guān)系。
    的頭像 發(fā)表于 11-19 15:32 ?3124次閱讀

    如何在樹莓派上安裝Docker容器

    1. 準(zhǔn)備工作 開始之前,請確保你的樹莓派已經(jīng)安裝了最新版本的Raspberry Pi OS。如果沒有,請按照以下步驟操作: 下載最新的Raspberry Pi OS鏡像:訪問 Raspberry
    的頭像 發(fā)表于 11-11 11:38 ?1659次閱讀

    LLM技術(shù)對人工智能發(fā)展的影響

    。 一、LLM技術(shù)人工智能領(lǐng)域的應(yīng)用 自然語言處理(NLP) LLM技術(shù)自然語言處理領(lǐng)域發(fā)揮著重要作用。通過訓(xùn)練模型識別和生成語言模式,LLM
    的頭像 發(fā)表于 11-08 09:28 ?1550次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    本文中,我們將深入探討LLM(Large Language Model,大型語言模型)的應(yīng)用領(lǐng)域。LLM是一種基于深度學(xué)習(xí)的人工智能技術(shù),它能夠理解和生成自然語言文本。近年來,隨著計算能力的提高
    的頭像 發(fā)表于 07-09 09:52 ?1090次閱讀

    什么是LLM?LLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領(lǐng)域的研究熱點。LLM以其強(qiáng)大的文本生成、理解和推理能力,文本
    的頭像 發(fā)表于 07-02 11:45 ?1.2w次閱讀