一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

云電腦:快速部署無限制、可聯(lián)網(wǎng)、帶專屬知識(shí)庫的私人 DeepSeek 大數(shù)據(jù)模型

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2025-02-12 18:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在當(dāng)下的科技領(lǐng)域,DeepSeek 無疑是一顆耀眼的明星,近期關(guān)于它的話題熱度持續(xù)飆升,引發(fā)了無數(shù)技術(shù)愛好者和行業(yè)從業(yè)者的熱烈討論。大家紛紛被其強(qiáng)大的大數(shù)據(jù)處理能力和廣泛的應(yīng)用前景所吸引,急切地想要深入探索和使用這一先進(jìn)的模型。然而,當(dāng)人們滿懷期待地訪問 DeepSeek 官網(wǎng)時(shí),卻遭遇了令人頭疼的問題 —— 官網(wǎng)響應(yīng)極其緩慢,常常讓等待的時(shí)間變得漫長而煎熬,嚴(yán)重影響了大家獲取信息和使用服務(wù)的效率。

不過,現(xiàn)在有一個(gè)絕佳的解決方案擺在我們面前。今天,就讓我們一同深入學(xué)習(xí)如何巧妙利用京東云電腦,快速部署一個(gè)功能強(qiáng)大的私人 DeepSeek 大數(shù)據(jù)模型。這個(gè)模型不僅無使用限制,還能自由聯(lián)網(wǎng),更可自定義自己的專屬知識(shí)庫,能夠滿足你多樣化的使用需求,為你帶來前所未有的便捷體驗(yàn)。

為什么要部署私人大數(shù)據(jù)模型?

或許你會(huì)心生疑惑,既然有眾多便捷的云端 AI 服務(wù)可供選擇,為何還要大費(fèi)周章地進(jìn)行私人部署呢?實(shí)際上,本地部署私人 DeepSeek 大數(shù)據(jù)模型有著諸多不可替代的獨(dú)特優(yōu)勢(shì)。

1.免費(fèi)使用,降低成本:在當(dāng)今的 AI 服務(wù)領(lǐng)域,許多云端服務(wù)都需要按使用量付費(fèi),對(duì)于頻繁使用 AI 模型的用戶來說,這無疑會(huì)帶來一筆不菲的開支。而本地部署,一旦完成初始的環(huán)境搭建與模型下載,便無需再支付額外的使用費(fèi)用,就像擁有了一臺(tái)專屬的 AI 超級(jí)助手,隨時(shí)待命,卻不會(huì)產(chǎn)生任何后續(xù)的經(jīng)濟(jì)負(fù)擔(dān)。

2.數(shù)據(jù)隱私保護(hù):當(dāng)我們使用云端 AI 服務(wù)時(shí),數(shù)據(jù)會(huì)被上傳至第三方服務(wù)器,這意味著我們的隱私數(shù)據(jù)可能面臨泄露的風(fēng)險(xiǎn)。而本地部署將數(shù)據(jù)完全存儲(chǔ)在本地,就如同將珍貴的寶藏鎖在自己的保險(xiǎn)柜里,只有自己擁有鑰匙,極大地保障了數(shù)據(jù)的安全性和隱私性,讓我們可以毫無顧慮地處理敏感信息。

3.無網(wǎng)絡(luò)依賴,隨時(shí)隨地使用:云端服務(wù)對(duì)網(wǎng)絡(luò)的依賴性極高,一旦網(wǎng)絡(luò)出現(xiàn)波動(dòng)或中斷,服務(wù)便無法正常使用。而本地部署的 AI 模型則擺脫了這種束縛,無論身處網(wǎng)絡(luò)信號(hào)良好的繁華都市,還是網(wǎng)絡(luò)覆蓋薄弱的偏遠(yuǎn)地區(qū),只要設(shè)備正常運(yùn)行,就能隨時(shí)隨地調(diào)用模型,享受高效穩(wěn)定的 AI 服務(wù),就像擁有了一個(gè)隨叫隨到的私人智能秘書。

4.靈活定制,滿足個(gè)性化需求:不同的用戶在使用 AI 模型時(shí),往往有著不同的需求和偏好。本地部署賦予了我們充分的自主控制權(quán),我們可以根據(jù)自己的實(shí)際需求,自由調(diào)整模型的參數(shù)和配置,添加個(gè)性化的功能,打造專屬于自己的獨(dú)一無二的 AI 模型,使其更貼合我們的工作和生活場景。

5.性能與效率優(yōu)勢(shì):本地部署能夠充分利用本地設(shè)備的硬件資源,避免了云端服務(wù)中可能出現(xiàn)的網(wǎng)絡(luò)延遲和資源競爭問題,從而實(shí)現(xiàn)更快的響應(yīng)速度和更高的運(yùn)行效率。在處理復(fù)雜任務(wù)時(shí),本地部署的模型能夠迅速給出結(jié)果,大大提升了工作效率,讓我們?cè)谂c時(shí)間賽跑的競爭中搶占先機(jī)。

6.無額外限制:一些云端 AI 服務(wù)可能會(huì)對(duì)使用時(shí)長、請(qǐng)求次數(shù)、生成內(nèi)容等設(shè)置限制,這在一定程度上束縛了我們的使用體驗(yàn)。而本地部署的模型則沒有這些限制,我們可以盡情發(fā)揮創(chuàng)意,自由探索 AI 的無限可能,充分滿足我們對(duì)技術(shù)的好奇心和探索欲。

DeepSeek 各版本示意

在深入探討部署過程之前,我們先來了解一下 DeepSeek 模型的不同版本及其特點(diǎn),這將有助于我們更好地選擇適合本地部署的模型。DeepSeek 模型主要有滿血版和蒸餾版兩個(gè)版本,它們?cè)诙鄠€(gè)方面存在明顯差異。

?滿血版指的是 DeepSeek 的完整版本,通常具有非常大的參數(shù)量。例如,DeepSeek-R1 的滿血版擁有 6710 億個(gè)參數(shù)。這種版本的模型性能非常強(qiáng)大,但對(duì)硬件資源的要求極高,通常需要專業(yè)的服務(wù)器支持。例如,部署滿血版的 DeepSeek-R1 至少需要 1T 內(nèi)存和雙 H100 80G 的推理服務(wù)器。

?蒸餾版本是通過知識(shí)蒸餾技術(shù)從滿血版模型中提取關(guān)鍵知識(shí)并轉(zhuǎn)移到更小的模型中,從而在保持較高性能的同時(shí),顯著降低計(jì)算資源需求。蒸餾版本的參數(shù)量從 1.5B 到 70B 不等,比如以下幾種變體:

?DeepSeek-R1-Distill-Qwen-1.5B

?DeepSeek-R1-Distill-Qwen-7B

?DeepSeek-R1-Distill-Qwen-14B

?DeepSeek-R1-Distill-Qwen-32B

?DeepSeek-R1-Distill-Llama-8B

?DeepSeek-R1-Distill-Llama-70B

DeepSeek-R1 是主模型的名字;Distill 的中文含義是 “蒸餾”,代表這是一個(gè)蒸餾后的版本;而后面跟的名字是從哪個(gè)模型蒸餾來的版本,例如 DeepSeek-R1-Distill-Qwen-32B 代表是基于千問(Qwen)蒸餾而來;最后的參數(shù)量(如 671B、32B、1.5B):表示模型中可訓(xùn)練參數(shù)的數(shù)量( “B” 代表 “Billion” ,即十億。因此,671B、32B、1.5B 分別表示模型的參數(shù)量為 6710億、320億和15億。),參數(shù)量越大,模型的表達(dá)能力和復(fù)雜度越高,但對(duì)硬件資源的需求也越高。

1.對(duì)于本地部署而言,蒸餾版是更為合適的選擇。一方面,它對(duì)硬件的要求相對(duì)較低,不需要昂貴的多 GPU 服務(wù)器,普通用戶使用配備合適顯卡的電腦即可完成部署,降低了硬件成本和技術(shù)門檻。另一方面,雖然蒸餾版在性能上相較于滿血版有所降低,但在很多實(shí)際應(yīng)用場景中,其性能表現(xiàn)依然能夠滿足需求,性價(jià)比極高。

購買和登錄云電腦

訪問京東云官網(wǎng)(https://www.jdcloud.com/),使用京東APP掃碼進(jìn)入管理控制臺(tái),購買云電腦。

當(dāng)前官網(wǎng)有試用活動(dòng),可以在首頁進(jìn)入試用中心(https://www.jdcloud.com/cn/pages/free_center),找到4核8G云電腦9.9元7天使用活動(dòng),下單。

wKgZO2esdzSAJHxdAACdvgF0__o069.png

下單完成后,按照指導(dǎo)登錄云電腦。

搭建 Ollama 服務(wù)

在本地部署 DeepSeek 大數(shù)據(jù)模型的過程中,Ollama 扮演著至關(guān)重要的角色,它是一個(gè)開源的 LLM(Large Language Model,大型語言模型)服務(wù)工具,就像是一位貼心的助手,專門用于簡化和降低大語言模型在本地的部署和使用門檻 ,讓我們能夠更加輕松地在本地環(huán)境部署和管理 LLM 運(yùn)行環(huán)境,快速搭建起屬于自己的 AI 模型服務(wù)。

接下來,我們將以在 Windows Server 2016 系統(tǒng)環(huán)境中部署 Ollama 為例,詳細(xì)介紹其安裝和部署步驟。

首先,我們需要下載 Ollama 的安裝文件。

wKgZPGesdzWAZkihAACdb9tJsxY965.png

?

Ollama 官方為 Windows、Linux 以及 MacOS 等多種主流系統(tǒng)都提供了對(duì)應(yīng)的安裝文件,我們可以直接從 Ollama 官網(wǎng)的下載頁面(https://ollama.com/download )獲取。在下載頁面中,找到 Windows 系統(tǒng)對(duì)應(yīng)的安裝包,點(diǎn)擊 “Download for Windows ” 進(jìn)行下載。

wKgZO2esdzaAFSKtAABxh8Yno5E091.png

下載完成后,我們只需一路點(diǎn)擊 “install” 進(jìn)行安裝即可。安裝過程就像安裝普通的軟件一樣簡單,按照安裝向?qū)У奶崾局鸩讲僮?,很快就能完成安裝。

安裝完成之后,我們需要驗(yàn)證 Ollama 是否安裝成功。首先檢查任務(wù)欄中是否有Ollama的圖標(biāo)。

wKgZPGesdzaAPosuAACOf31QUXU274.png

然后打開一個(gè) cmd 命令窗口,輸入 “ollama” 命令,如果顯示 ollama 相關(guān)的信息,那就證明安裝已經(jīng)成功了。這就好比我們安裝完一款游戲后,打開游戲能夠正常顯示游戲界面,就說明游戲安裝成功了一樣。

wKgZO2esdzeAbP33AAD26P2k77A585.png

為了讓 Ollama 在系統(tǒng)啟動(dòng)時(shí)自動(dòng)運(yùn)行,我們還需要將其添加為啟動(dòng)服務(wù)。在 Windows 系統(tǒng)中,我們可以通過以下步驟來實(shí)現(xiàn):

1.打開 “服務(wù)” 窗口。我們可以通過在 “運(yùn)行” 對(duì)話框中輸入 “services.msc” 并回車來快速打開。

2.在 “服務(wù)” 窗口中,找到 “Ollama” 服務(wù)(如果沒有找到,可以先在 cmd 命令窗口中輸入 “ollama serve” 啟動(dòng) Ollama 服務(wù))。

3.右鍵點(diǎn)擊 “Ollama” 服務(wù),選擇 “屬性”。

4.在 “屬性” 窗口中,將 “啟動(dòng)類型” 設(shè)置為 “自動(dòng)”,然后點(diǎn)擊 “確定” 保存設(shè)置。

這樣,當(dāng)我們的系統(tǒng)下次啟動(dòng)時(shí),Ollama 服務(wù)就會(huì)自動(dòng)啟動(dòng),隨時(shí)準(zhǔn)備為我們提供服務(wù),就像我們?cè)O(shè)置了鬧鐘,每天早上鬧鐘會(huì)自動(dòng)響起,提醒我們新的一天開始了一樣。

運(yùn)行 DeepSeek 模型

當(dāng) Ollama 服務(wù)成功搭建并順利啟動(dòng)后,我們就可以著手使用它來運(yùn)行 DeepSeek 模型了。打開模型的官網(wǎng)地址:https://ollama.com/library/deepseek-r1。

wKgZPGesdziAG5KfAADcOpZFTDo549.png

這里我們選擇1.5b的模型,復(fù)制后面的內(nèi)容。

wKgZO2esdzmAJA7mAADRvFTGu7Q470.png

各模型版本說明

模型版本 所需空余空間 部署命令 配置說明
1.5b 1.1GB ollama run deepseek-r1:1.5b 適用于內(nèi)存為4G的電腦,參數(shù)規(guī)模較小,適合輕量級(jí)任務(wù)。
7b 4.7GB ollama run deepseek-r1:7b 適用于內(nèi)存為16G的電腦,參數(shù)規(guī)模適中,適合中等復(fù)雜度的任務(wù)。
8b 4.9GB ollama run deepseek-r1:8b 適用于內(nèi)存為16G的電腦,參數(shù)規(guī)模適中,適合中等復(fù)雜度的任務(wù)。
14b 9GB ollama run deepseek-r1:14b 適用于內(nèi)存為16G的電腦,參數(shù)規(guī)模較大,適合較高復(fù)雜度的任務(wù)。
32b 20GB ollama run deepseek-r1:32b 適用于內(nèi)存較大的電腦,參數(shù)規(guī)模大,適合高復(fù)雜度任務(wù)和高準(zhǔn)確性要求。
70b 43GB ollama run deepseek-r1:70b 適用于內(nèi)存較大的電腦,參數(shù)規(guī)模極大,適合極高復(fù)雜度任務(wù)和高準(zhǔn)確性要求。
671b 404GB ollama run deepseek-r1:671b 基礎(chǔ)大模型,參數(shù)數(shù)量最多,模型容量極大,適合處理海量知識(shí)和復(fù)雜語言模式的任務(wù)。

?

在命令行中,我們輸入 “ollama run deepseek-r1: 版本號(hào)”,由于我們上面復(fù)制了,直接鼠標(biāo)右鍵就可以粘貼成功。

wKgZPGesdzqAZ1HZAAEA7VsPlmI821.png

回車后,開始下載

wKgZO2esdzqAXNq7AADrbz_PPg0129.png

耐心等待后,見如下提示success表示下載成功。

wKgZPGesdzuAK-h_AACyXWezrAI080.png

可以問他一些問題,如下:

wKgZO2esdzyAAFg9AACnARCVG8I353.png

?

圖形客戶端配置本地知識(shí)庫

利用 CherryStudio 搭建知識(shí)寶庫

Cherry Studio 是一款強(qiáng)大的聚合主流大語言模型服務(wù)的桌面工具,為我們搭建本地知識(shí)庫提供了便捷的途徑,宛如一位貼心的知識(shí)管家,幫助我們高效地管理和利用知識(shí)。

1.下載與安裝:打開 Cherry 官網(wǎng)(https://cherry-ai.com/download ),根據(jù)自己的操作系統(tǒng)選擇適配的版本進(jìn)行下載。下載完成后,按照默認(rèn)設(shè)置進(jìn)行安裝即可。

2.選擇 DeepSeek R1 模型:啟動(dòng) Cherry Studio 后,首先需要配置模型服務(wù)。我們把在硅基流動(dòng)中申請(qǐng)的 API 密鑰添加進(jìn)去,這就像是給模型服務(wù)配了一把鑰匙,讓它能夠順利開啟。如果還沒有申請(qǐng)過密鑰,可以在 API 秘鑰下方點(diǎn)擊 “這里獲取密鑰”,進(jìn)入硅基流動(dòng)官網(wǎng),點(diǎn)擊創(chuàng)建 API 密鑰即可。完成密鑰添加后,在下方添加 DeepSeek R1 模型,具體路徑為 deepseek-ai/DeepSeek-R1 ,也可以點(diǎn)擊下方管理按鈕找到 DeepSeek 模型直接添加。添加完成后,點(diǎn)擊檢查按鈕進(jìn)行測試,當(dāng)看到檢查按鈕變成綠色對(duì)鉤,就表示測試通過,我們已經(jīng)成功與 DeepSeek R1 模型建立了聯(lián)系。

3.搭建本地知識(shí)庫:點(diǎn)擊管理按鈕,選擇嵌入模型,這里我們可以把常用的幾個(gè)嵌入模型都添加進(jìn)去,為后續(xù)的知識(shí)處理做好準(zhǔn)備。確認(rèn)添加后,就能看到之前添加的嵌入式模型了。接著,點(diǎn)擊左側(cè)知識(shí)庫按鈕,添加本地文檔。在彈出的窗口中,填寫知識(shí)庫名稱,選擇合適的嵌入模型,然后上傳本地文件。Cherry Studio 支持多種類型的知識(shí)上傳,包括文件、目錄、網(wǎng)址、筆記等等,非常方便。比如我們上傳了一個(gè)《三體》全集,當(dāng)出現(xiàn)對(duì)鉤時(shí),就表示文件處理完成,已經(jīng)成功加入到我們的知識(shí)庫中了。

4.使用知識(shí)庫:在聊天窗口選擇知識(shí)庫圖標(biāo),選中之前創(chuàng)建的知識(shí)庫,如我們創(chuàng)建的 “test” 知識(shí)庫。現(xiàn)在,就可以在聊天區(qū)域詢問有關(guān)知識(shí)庫的問題了。比如我們?cè)儐?“《三體》中三體人的科技特點(diǎn)是什么?”,DeepSeek R1 模型就會(huì)結(jié)合知識(shí)庫中的《三體》內(nèi)容,給出準(zhǔn)確而詳細(xì)的回答,讓我們輕松獲取所需的知識(shí)。

Page Assist 實(shí)現(xiàn)本地模型聯(lián)網(wǎng)

Page Assist 是一款開源瀏覽器擴(kuò)展程序,它就像是一座橋梁,為本地 AI 模型與網(wǎng)絡(luò)之間搭建起了溝通的渠道,讓我們的本地 DeepSeek 模型能夠?qū)崿F(xiàn)聯(lián)網(wǎng)搜索,獲取更廣泛的信息。

1.安裝 Page Assist 插件:打開我們常用的瀏覽器(建議使用 Chrome 或 Edge),在瀏覽器的擴(kuò)展商店中搜索 “Page Assist”,找到對(duì)應(yīng)的插件后點(diǎn)擊安裝。安裝完成后,插件會(huì)在瀏覽器的插件欄中顯示。

2.配置 Page Assist:安裝完成后,在瀏覽器的插件列表中點(diǎn)擊打開 Page Assist。在 Page Assist 的 Web UI 界面中,首先選擇剛剛下載的 DeepSeek 模型,確保模型與插件正確連接。接著,在 “RAG 設(shè)置” 中,確保選擇了深度求索模型,為聯(lián)網(wǎng)搜索做好準(zhǔn)備。

3.使用聯(lián)網(wǎng)功能:回到主界面,此時(shí)界面已經(jīng)是中文版,使用起來更加方便。點(diǎn)擊 “Page Assist” 插件,點(diǎn)擊上方的下拉菜單,選擇已經(jīng)安裝的模型。然后將聊天框的聯(lián)網(wǎng)按鈕開關(guān)打開,就可以進(jìn)行聯(lián)網(wǎng)搜索了。比如我們?cè)儐?“最近的科技新聞?dòng)心男??”,模型就?huì)通過聯(lián)網(wǎng)獲取最新的科技資訊,并給出回答,讓我們及時(shí)了解行業(yè)動(dòng)態(tài)。為了更好地利用知識(shí),我們還可以添加嵌入模型,通過 “ollama pull nomic-embed-text” 命令下載嵌入模型,然后在插件里 RAG 設(shè)置中選擇嵌入模型。具體操作是點(diǎn)擊右上角齒輪【設(shè)置】——》【RAG 設(shè)置】——》選擇文本嵌入模型 ——》點(diǎn)擊【保存】按鈕即可。這樣,模型在處理問題時(shí)能夠更好地理解文本的語義和關(guān)聯(lián),提供更準(zhǔn)確的回答。

Anything LLM 打通本地知識(shí)庫以及聯(lián)網(wǎng)設(shè)置

Anything LLM 專注于文檔知識(shí)庫與問答場景,自帶向量檢索管理,就像是一個(gè)智能的知識(shí)搜索引擎,能夠?qū)崿F(xiàn)多文檔整合,為我們打造一個(gè)強(qiáng)大的本地知識(shí)庫問答系統(tǒng),同時(shí)它也支持聯(lián)網(wǎng)設(shè)置,讓知識(shí)獲取更加全面。

1.下載與安裝:打開 Anything LLM 的官網(wǎng)(https://anythingllm.com/desktop ),根據(jù)自己的系統(tǒng)選擇下載對(duì)應(yīng)的版本。下載完成后,按照默認(rèn)路徑安裝或者根據(jù)自己的需求修改安裝路徑都可以。安裝完成后,點(diǎn)擊完成按鈕,會(huì)自動(dòng)跳轉(zhuǎn)到 Anything LLM 界面。

2.配置模型:在 Anything LLM 界面中,首先選擇 Ollama 作為模型管理器,因?yàn)槲覀冎耙呀?jīng)通過 Ollama 運(yùn)行了 DeepSeek 模型,這樣可以實(shí)現(xiàn)兩者的無縫對(duì)接。Anything LLM 會(huì)自動(dòng)檢測本地部署的模型,前提是確保 Ollama 本地部署的模型正常運(yùn)行。在模型配置中,“LLM Selection(大語言模型選擇)” 選擇名為 Ollama 的模型,這意味著我們的模型和聊天記錄僅在運(yùn)行 Ollama 模型的機(jī)器上可訪問,保障了數(shù)據(jù)的安全性和隱私性;“Embedding Preference(嵌入偏好)” 使用名為 AnythingLLM Embedder 的嵌入工具,說明文檔文本是在 Anything LLM 的實(shí)例上私密嵌入的,不會(huì)泄露給第三方;“Vector Database(向量數(shù)據(jù)庫)” 使用 LanceDB 作為向量數(shù)據(jù)庫,保證向量和文檔文本都存儲(chǔ)在這個(gè) Anything LLM 實(shí)例上,進(jìn)一步強(qiáng)調(diào)了數(shù)據(jù)的私密性。

3.搭建本地知識(shí)庫:在左側(cè)工作區(qū)找到上傳按鈕,點(diǎn)擊上傳按鈕后,可以選擇上傳本地文件或者鏈接。比如我們上傳了一個(gè)包含公司項(xiàng)目資料的文件,選中上傳的文件,點(diǎn)擊 “Move to Workspace”,然后點(diǎn)擊 “Save and Embed”,系統(tǒng)會(huì)對(duì)文檔進(jìn)行切分和詞向量化處理,將文檔轉(zhuǎn)化為模型能夠理解和處理的格式。完成后,點(diǎn)擊圖釘按鈕,將這篇文檔設(shè)置為當(dāng)前對(duì)話的背景文檔,這樣在提問時(shí),模型就會(huì)優(yōu)先參考這篇文檔的內(nèi)容。

4.深度調(diào)整:為了讓模型更好地回答問題,我們可以進(jìn)行一些深度調(diào)整。點(diǎn)開設(shè)置,將聊天模式改成查詢模式,這樣 AI 會(huì)更基于它查詢出來的數(shù)據(jù)進(jìn)行回答;將向量數(shù)據(jù)庫的最大上下文片段改成 6,意味著每次查詢時(shí),模型會(huì)去數(shù)據(jù)庫里取出 6 個(gè)和問題相關(guān)的片段,以便更全面地理解問題;將文檔相似性閾值改成中,用來控制查詢到的數(shù)據(jù)和問題相關(guān)程度的閾值,確保獲取到的信息與問題高度相關(guān)。

5.聯(lián)網(wǎng)設(shè)置:雖然 Anything LLM 主要用于本地知識(shí)庫的搭建,但它也支持聯(lián)網(wǎng)設(shè)置。在一些高級(jí)設(shè)置中,我們可以配置網(wǎng)絡(luò)訪問權(quán)限,讓模型在需要時(shí)能夠聯(lián)網(wǎng)獲取更廣泛的信息。比如當(dāng)本地知識(shí)庫中沒有相關(guān)信息時(shí),模型可以通過聯(lián)網(wǎng)搜索來補(bǔ)充知識(shí),提供更準(zhǔn)確的回答。不過在使用聯(lián)網(wǎng)功能時(shí),需要注意網(wǎng)絡(luò)安全和隱私保護(hù),確保數(shù)據(jù)的安全傳輸。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50430
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    8960

    瀏覽量

    140244
  • DeepSeek
    +關(guān)注

    關(guān)注

    1

    文章

    798

    瀏覽量

    1752
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】DeepSeek 部署及測試

    、RKLLM 、編譯和運(yùn)行、效果演示等。 簡介 介紹了板端部署DeepSeek 模型及其部署方案。
    發(fā)表于 03-21 19:31

    《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識(shí)庫

    應(yīng)用。第六章深入探討了RAG架構(gòu)的工作原理,該技術(shù)通過在推理過程中實(shí)時(shí)檢索和注入外部知識(shí)來增強(qiáng)模型的生成能力。RAG架構(gòu)的核心是檢索器和生成器兩大模塊,檢索器負(fù)責(zé)從知識(shí)庫中找到與當(dāng)前查詢相關(guān)的文檔片段,生成器
    發(fā)表于 03-07 19:49

    技術(shù)融合實(shí)戰(zhàn)!Ollama攜手Deepseek搭建知識(shí)庫,Continue入駐VScode

    Ollama、Deepseek-R1、AnythingLLM 搭建強(qiáng)大的本地個(gè)人知識(shí)庫,并詳細(xì)介紹 Continue 在 VScode 中的本地集成,帶你解鎖全新的技術(shù)應(yīng)用體驗(yàn),開啟高效知識(shí)管理與開發(fā)
    的頭像 發(fā)表于 03-04 14:47 ?673次閱讀
    技術(shù)融合實(shí)戰(zhàn)!Ollama攜手<b class='flag-5'>Deepseek</b>搭建<b class='flag-5'>知識(shí)庫</b>,Continue入駐VScode

    RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南

    DeepSeek作為國產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。DeepSeek-R1作為該系列最新迭代版本,實(shí)現(xiàn)了長文本處理效能躍遷、多模態(tài)
    發(fā)表于 02-27 16:45

    用騰訊ima和Deepseek建立個(gè)人微信知識(shí)庫

    ---基于騰訊混元大模型Deepseek-r推理模型的個(gè)人知識(shí)庫。大模型是通才,知識(shí)庫是專家大
    的頭像 發(fā)表于 02-25 17:33 ?1381次閱讀
    用騰訊ima和<b class='flag-5'>Deepseek</b>建立個(gè)人微信<b class='flag-5'>知識(shí)庫</b>

    DeepSeek從入門到精通(2):0成本用DeepSeek(滿血版)搭建本地知識(shí)庫

    我們身處數(shù)字化浪潮中,知識(shí)管理和利用的重要性與日俱增。擁有一個(gè)專屬的本地知識(shí)庫,能極大提升工作效率,滿足個(gè)性化需求。但對(duì)于技術(shù)小白來說,搭建這樣的知識(shí)庫不僅存在技術(shù)門檻,同時(shí)也意味著需
    的頭像 發(fā)表于 02-23 15:34 ?616次閱讀
    <b class='flag-5'>DeepSeek</b>從入門到精通(2):0成本用<b class='flag-5'>DeepSeek</b>(滿血版)搭建本地<b class='flag-5'>知識(shí)庫</b>

    紹興數(shù)據(jù)局率先實(shí)現(xiàn)政務(wù)環(huán)境下的DeepSeek模型部署

    ,為各行各業(yè)帶來無窮活力與無限可能。紹興市數(shù)據(jù)局密切關(guān)注大模型技術(shù)發(fā)展,持續(xù)進(jìn)行深入測試和學(xué)習(xí),積極推進(jìn)AI技術(shù)在智慧政務(wù)領(lǐng)域的應(yīng)用。春節(jié)復(fù)工后,數(shù)據(jù)局迅速聯(lián)合政務(wù)
    的頭像 發(fā)表于 02-20 11:22 ?1473次閱讀
    紹興<b class='flag-5'>數(shù)據(jù)</b>局率先實(shí)現(xiàn)政務(wù)環(huán)境下的<b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    標(biāo)普DeepSeek一體機(jī)發(fā)布:零門檻部署企業(yè)DeepSeek

    標(biāo)普DeepSeek一體機(jī)重磅發(fā)布:開箱即用,零門檻快速部署企業(yè)自己的DeepSeek 在AI技術(shù)加速滲透千行百業(yè)的今天,企業(yè)如何既保障
    的頭像 發(fā)表于 02-17 16:49 ?586次閱讀

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    DeepSeek 模型部署與測試,開啟這場充滿挑戰(zhàn)與驚喜的技術(shù)探索之旅。 RK3588 開發(fā)板:AI 性能擔(dān)當(dāng) RK3588 開發(fā)板基于先進(jìn)的 8nm LP 制程工藝精心打造,其硬件配置堪稱豪華,在 AI
    發(fā)表于 02-14 17:42

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    DeepSeek-R1 更適合電子工程核心工作流,因其在符號(hào)數(shù)學(xué)、代碼嚴(yán)謹(jǐn)性、長文檔結(jié)構(gòu)化理解上的優(yōu)勢(shì)。 二、其他領(lǐng)域?qū)S?b class='flag-5'>模型推薦 若需更高精度,結(jié)合以下工具組成混合方案: 1. 符號(hào)計(jì)算增強(qiáng)
    發(fā)表于 02-14 02:08

    Deepseek R1大模型離線部署教程

    。作為國產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。 本文主要說明DeepSeek-R1如何離線運(yùn)行在EASY-EAI-Orin-Nano(RK3576)硬件上, RK3576 具有優(yōu)異的端側(cè)AI能效比與極高的性價(jià)比,
    的頭像 發(fā)表于 02-12 09:37 ?1779次閱讀
    <b class='flag-5'>Deepseek</b> R1大<b class='flag-5'>模型</b>離線<b class='flag-5'>部署</b>教程

    “輕松上手!5分鐘學(xué)會(huì)用京東打造你自己的專屬DeepSeek

    #從第?步驟到第四步驟是完成DeepSeek本地部署和使?,可以滿?中?企業(yè)環(huán)境的穩(wěn)定 使?,第五步驟為基于AnythingLLM和本地數(shù)據(jù)進(jìn)?訓(xùn)練(基于本地數(shù)據(jù)搭建本地
    的頭像 發(fā)表于 02-10 17:41 ?1701次閱讀
    “輕松上手!5分鐘學(xué)會(huì)用京東<b class='flag-5'>云</b>打造你自己的<b class='flag-5'>專屬</b><b class='flag-5'>DeepSeek</b>”

    騰訊率先上線DeepSeek模型API接口,支持聯(lián)網(wǎng)搜索

    的API接口,用戶可以輕松接入DeepSeek模型,實(shí)現(xiàn)各種創(chuàng)新應(yīng)用。同時(shí),騰訊旗下的大模型知識(shí)應(yīng)用開發(fā)平臺(tái)——
    的頭像 發(fā)表于 02-10 09:47 ?994次閱讀

    基于華為 Flexus 服務(wù)器 X 搭建部署——AI 知識(shí)庫問答系統(tǒng)(使用 1panel 面板安裝)

    Flexus 服務(wù)器 X 攜手開源力量,為您打造全方位、高性能的知識(shí)庫問答系統(tǒng)!無論您是構(gòu)建企業(yè)內(nèi)部的知識(shí)寶庫,還是優(yōu)化客戶服務(wù)體驗(yàn),亦或深耕學(xué)術(shù)研究與教育領(lǐng)域,這一創(chuàng)新解決方案都是您不可多得的智慧伙伴! ???基于大語言
    的頭像 發(fā)表于 01-17 09:45 ?2042次閱讀
    基于華為<b class='flag-5'>云</b> Flexus <b class='flag-5'>云</b>服務(wù)器 X 搭建<b class='flag-5'>部署</b>——AI <b class='flag-5'>知識(shí)庫</b>問答系統(tǒng)(使用 1panel 面板安裝)

    【實(shí)操文檔】在智能硬件的大模型語音交互流程中接入RAG知識(shí)庫

    非常明顯的短板。盡管這些模型在理解和生成自然語言方面有極高的性能,但它們?cè)谔幚韺I(yè)領(lǐng)域的問答時(shí),卻往往不能給出明確或者準(zhǔn)確的回答。 這時(shí)就需要接一個(gè)專有知識(shí)庫來滿足產(chǎn)品專有和專業(yè)知識(shí)的回復(fù)需求,理論
    發(fā)表于 09-29 17:12