作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力
智譜最近發(fā)布了AutoGLM沉思,一個能夠把一個開放式問題,拆解成一個個具體的小問題,并根據(jù)結果執(zhí)行操作的自主智能體(AI Agent),它能夠模擬人類的思維過程,完成從數(shù)據(jù)檢索、分析到生成報告,大大節(jié)約了粗顆粒度調(diào)研到報告生成的過程!例如,給AutoGLM沉思輸入提示詞:“撰寫一篇專業(yè)的IDP(Intelligent Document Processing)深度行業(yè)調(diào)研報告”,AutoGLM會查閱幾十個網(wǎng)站的信息,然后匯總成一篇專業(yè)的報告。
本文從零開始介紹使用DeepSeek和MCP快速實現(xiàn)一個跟AutoGLM沉思一樣的AI Agent,全自動實現(xiàn)從數(shù)據(jù)檢索、分析到生成報告的完整工作流。
一,DeepSeek-V3-0324是調(diào)用MCP的優(yōu)秀模型
2025年3月24日,DeepSeek發(fā)布了大語言模型DeepSeek-V3-0324,其在評估代碼生成性能的基準測試平臺(LiveCodeBench)中首次通過所有測試用例(Pass@1)的比例為49.2%,如下圖所示,超過GPT-4.5(44.4%)和Claude-3.7-Sonnet(42.2%),被評價為“目前編程能力最強的非推理開源模型之一”。
值得一提的是:DeepSeek-V3-0324模型不僅編程能力強,而且對MCP支持非常好,更重要的是性價比極高!DeepSeek + MCP非常適合打造日常使用的生產(chǎn)力工具。
數(shù)據(jù)來源: https://docsbot.ai/models/compare/gpt-4-5/deepseek-v3
二,為什么DeepSeek要調(diào)用MCP?
既然DeepSeek-V3-0324能力這么強了,為什么還要讓DeepSeek調(diào)用MCP?在《MCP:連接AI與應用程序的開放標準!》文中介紹了AI大模型發(fā)展兩條路徑:
1. 讓模型掌握更多信息:搜索、RAG、多模態(tài)等技術,都是讓模型掌握更多信息;
2. 讓模型使用更多工具:Function Call、MCP等技術,都是讓模型使用更多工具。
Model Context Protocol(MCP)就是通過讓DeepSeek調(diào)用更多工具,來增強DeepSeek能力的方法。
MCP通過標準化協(xié)議解決各種應用程序(工具)輕松接入AI大模型的問題,讓AI大模型能自動與各種應用程序協(xié)作,而無需開發(fā)者手動編寫任何協(xié)作代碼,大大簡化了開發(fā)流程!
另外,DeepSeek + MCP比Dify、Coze等畫布形式,更容易實現(xiàn)AI Agent應用(AI Agent = AI大模型 + 工具調(diào)用)。
三,搭建DeepSeek+MCP開發(fā)環(huán)境
構建DeepSeek+MCP開發(fā)環(huán)境,非常簡單,只需要三步:
1. 安裝VS Code和Cline插件
2. 在DeepSeek官網(wǎng)購買API Keys
3. 在Cline中填入DeepSeek API Key
請在參考《用MCP將百度地圖能力輕松接入DeepSeek》一文,完成開發(fā)環(huán)境搭建,并體驗讓DeepSeek通過MCP調(diào)用百度地圖能力。
四,添加Sequential-Thinking MCP Server
Sequential Thinking MCP Server? 是基于 MCP(Model Context Protocol)協(xié)議開發(fā)的?結構化問題處理工具?,專為復雜任務的分步推理和動態(tài)調(diào)整設計。其核心是通過標準化接口連接 AI 模型與外部工具/數(shù)據(jù),實現(xiàn)可控的逐步式問題解決流程。
跟AI 大模型單次生成相比,AI大模型 + Sequential Thinking MCP Server 通過?步驟化控制+工具調(diào)用?,使任務執(zhí)行準確率提升約 35%。
到https://mcp.so/server/sequentialthinking,把 Sequential Thinking MCP Server在Cline下的配置語句拷貝Cline的cline_mcp_settings.json文件,保存后顯示綠燈,說明配置成功!
五,添加Tavily MCP Server
Tavily MCP Server? 是基于 MCP(Model Context Protocol)協(xié)議開發(fā)的?智能搜索服務工具?,旨在通過標準化接口將 Tavily 搜索引擎與 AI大模型(如 DeepSeek-V3等)深度集成,實現(xiàn)?安全、動態(tài)的實時數(shù)據(jù)交互。
Tavily MCP Server 正在成為 AI 大模型的“數(shù)據(jù)外接大腦”,推動從封閉式問答向開放式智能服務的轉型?。
首先,請到https://app.tavily.com/home,完成注冊并獲得API Key。
然后,請到https://github.com/tavily-ai/tavily-mcp,把 Tavily MCP Server在Cline下的配置語句拷貝Cline的cline_mcp_settings.json文件,保存后顯示綠燈,說明配置成功!
六,用DeepSeek+MCP編寫行研報告
配置好后,輸入提示詞:“撰寫一篇專業(yè)的IDP(Intelligent Document Processing)深度行業(yè)調(diào)研報告”,DeepSeek + MCP會像AutoGLM沉思一樣查閱幾十個網(wǎng)站的信息,然后匯總成一篇專業(yè)的報告。
請看關聯(lián)視頻
整個過程的Token消耗,僅人民幣0.67元。
七,總結
公司中的非技術人員應該掌握DeepSeek+MCP工具,通過對話的方式,構建自己的AI智能體工作流,減少重復性手動操作,提高工作效率!
如果你有更好的文章,歡迎投稿!
稿件接收郵箱:nami.liu@pasuntech.com
更多精彩內(nèi)容請關注“算力魔方?”!
審核編輯 黃宇
-
MCP
+關注
關注
0文章
273瀏覽量
14390 -
DeepSeek
+關注
關注
1文章
798瀏覽量
1759
發(fā)布評論請先 登錄
【「DeepSeek 核心技術揭秘」閱讀體驗】書籍介紹+第一章讀后心得
【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術:DeepSeek 核心技術揭秘
如何用FastMCP快速開發(fā)自己的MCP Server?


評論