超級智能體整合框架/工具: DeerFlow 新手完全使用指南 (附: 和龍蝦的比較)
2026-03-20🦌 DeerFlow
DeerFlow(Deep Exploration and Efficient Research Flow)是一個開源的 super agent harness,能夠組織 sub-agents、記憶體和沙箱,搭配可擴展的 Skills,讓 Agent 可以完成幾乎任何事情。本指南將帶領您從零開始,一步步掌握 DeerFlow 的使用方法。
一、DeerFlow 是什麼?
DeerFlow 不只是一個研究工具,更是一個讓 Agents 真正完成任務的運行時基礎設施。它的核心特點包括:
- Skills 與 Tools:通過結構化能力模塊擴展功能,按需加載,避免上下文過載
- Sub-Agents:複雜任務會被拆解,由多個 sub-agents 並行處理,最後匯總結果
- Sandbox 與文件系統:每個任務都在隔離的 Docker 容器中運行,擁有完整的文件系統
- 長期記憶:跨 session 累積關於您的個人偏好、知識背景和工作習慣
- Context Engineering:每個 sub-agent 擁有獨立上下文,並具備摘要壓縮能力
DeerFlow 的核心特性與功能:
多智能體協作: 採用模組化架構,包含協調器(Coordinator)、規劃器(Planner)、研究員(Researcher)、編碼員(Coder)和報告員(Reporter),各司其職。
端到端自動化研究: 輸入研究主題,DeerFlow 可自主完成搜尋、閱讀、資料分析、程式碼運行及最終報告撰寫。
支援 MCP 系統: 整合 MCP(Model Context Protocol)服務,可擴充連接各種外部工具(如高德地圖、知識庫等)。
技術堆疊: 基於 Python 3.12+ 和 LangGraph,提供控制台與 Web UI。
應用情境: 廣泛應用於複雜趨勢分析(如市場研究)、資料分析、自動化產業報告撰寫,以及多模態內容(如播客、PPT)產生。
演進版本:
2026年3月發布的 DeerFlow 2.0 被定位為“超級智能體執行底座”,不僅限於查資料,還支持 Docker 沙箱、持久化記憶,可自主幹完整項目,是 OpenAI Deep Research 的開源替代方案。
二、快速開始:配置與運行
步驟 1:克隆倉庫並生成配置
bash
git clone https://github.com/bytedance/deer-flow.git cd deer-flow make config # 基於示例模板生成本地配置文件
步驟 2:配置模型
編輯 config.yaml 文件,定義至少一個模型。以下是幾個範例 (更多的範例在下面附錄):
yaml
models:
- name: gpt-4 # 內部標識
display_name: GPT-4 # 展示名稱
use: langchain_openai:ChatOpenAI
model: gpt-4
api_key: $OPENAI_API_KEY
max_tokens: 4096
temperature: 0.7
- name: openrouter-gemini-2.5-flash
display_name: Gemini 2.5 Flash (OpenRouter)
use: langchain_openai:ChatOpenAI
model: google/gemini-2.5-flash-preview
api_key: $OPENAI_API_KEY
base_url: https://openrouter.ai/api/v1
步驟 3:設置 API Key
您可以選擇以下任一方式:
方式 A(推薦):編輯項目根目錄下的 .env 文件
env
TAVILY_API_KEY=your-tavily-api-key OPENAI_API_KEY=your-openai-api-key
方式 B:在 shell 中導出環境變量
bash
export OPENAI_API_KEY=your-openai-api-key
方式 C:直接編輯 config.yaml(不建議用於生產環境)
步驟 4:運行應用
方式一:Docker(推薦)
bash
make docker-init # 拉取 sandbox 鏡像(首次運行或鏡像更新時執行) make docker-start # 啟動服務
生產模式:
bash
make up # 構建鏡像並啟動全部生產服務 make down # 停止並移除容器
方式二:本地開發
bash
make check # 檢查依賴環境(Node.js 22+、pnpm、uv、nginx) make install # 安裝後端 + 前端依賴 make setup-sandbox # 預拉取 sandbox 鏡像(可選) make dev # 啟動服務
三、進階配置
1. Sandbox 模式配置
DeerFlow 支持三種 sandbox 執行方式:
- 本地執行:直接在宿主機上運行 sandbox 代碼
- Docker 執行:在隔離的 Docker 容器中運行
- Docker + Kubernetes 執行:通過 provisioner 服務在 Kubernetes Pod 中運行
配置示例(在 config.yaml 中):
yaml
sandbox: use: deerflow.community.aio_sandbox:AioSandboxProvider provisioner_url: http://localhost:8001
2. MCP Server 配置
DeerFlow 支持可配置的 MCP Server 和 skills,用於擴展能力。詳細說明請參閱 MCP Server 指南。
3. IM 渠道配置
DeerFlow 支持從即時通訊應用接收任務,無需公網 IP。
Telegram 配置
- 打開 @BotFather,發送
/newbot,複製生成的 HTTP API token - 在
.env中設置TELEGRAM_BOT_TOKEN - 在
config.yaml中啟用該渠道
Slack 配置
- 前往 api.slack.com/apps 創建 Slack App
- 在 OAuth & Permissions 中添加 Bot Token Scopes:
app_mentions:read、chat:write、im:history、im:read、im:write、files:write - 啟用 Socket Mode,生成帶
connections:write權限的 App-Level Token(xapp-…) - 在 Event Subscriptions 中訂閱 bot events:
app_mention、message.im - 在
.env中設置SLACK_BOT_TOKEN和SLACK_APP_TOKEN
飛書 / Lark 配置
- 在 飛書開放平台 創建應用,啟用 Bot 能力
- 添加權限:
im:message、im:message.p2p_msg:readonly、im:resource - 在事件訂閱中訂閱
im.message.receive_v1,連接方式選擇「長連接」 - 複製 App ID 和 App Secret,在
.env中設置FEISHU_APP_ID和FEISHU_APP_SECRET
四、常用命令
渠道連接完成後,您可以直接在聊天窗口中使用以下命令:
| 命令 | 說明 |
|---|---|
/new | 開啟新對話 |
/status | 查看當前 thread 信息 |
/models | 列出可用模型 |
/memory | 查看 memory |
/help | 查看幫助 |
沒有命令前綴的消息會被當作普通聊天處理。
五、核心功能深入
1. 使用 Skills
Skills 存放在以下路徑:
text
/mnt/skills/public/ # 內置 skills ├── research/SKILL.md ├── report-generation/SKILL.md ├── slide-creation/SKILL.md └── ... /mnt/skills/custom/ # 您的自定義 skills └── your-custom-skill/SKILL.md
您可以添加自己的 skills,替換內置 skills,或組合多個 skills 形成複合工作流。
2. Claude Code 集成
安裝 claude-to-deerflow skill:
bash
npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow
確認 DeerFlow 已啟動(默認地址:http://localhost:2026),在 Claude Code 中使用 /claude-to-deerflow 命令即可交互。
可執行的操作:
- 發送消息並接收流式響應
- 選擇執行模式:flash(更快)、standard、pro(規劃模式)、ultra(sub-agents 模式)
- 檢查健康狀態、列出 models/skills/agents
- 管理 threads 和會話歷史
- 上傳文件進行分析
3. 使用 Python Client(內嵌方式)
無需啟動完整 HTTP 服務,直接作為 Python 庫使用:
python
from deerflow.client import DeerFlowClient
client = DeerFlowClient()
# 基本對話
response = client.chat("幫我分析這篇論文", thread_id="my-thread")
# 流式輸出
for event in client.stream("hello"):
if event.type == "messages-tuple" and event.data.get("type") == "ai":
print(event.data["content"])
# 配置與管理
models = client.list_models() # 列出模型
skills = client.list_skills() # 列出 skills
client.update_skill("web-search", enabled=True) # 啟用 skill
client.upload_files("thread-1", ["./report.pdf"]) # 上傳文件
六、推薦模型
DeerFlow 對模型沒有強綁定,只要實現 OpenAI 兼容 API 的 LLM 都可以接入。推薦使用具備以下能力的模型:
- 長上下文窗口(100k+ tokens)
- 強大的推理能力
- 多模態輸入能力
- 穩定的 tool use 能力
官方推薦:Doubao-Seed-2.0-Code、DeepSeek v3.2、Kimi 2.5
七、實用小提示
- 首次使用:建議先用 Docker 模式快速體驗,熟悉後再嘗試本地開發
- 配置檢查:使用
make check確保所有依賴都已正確安裝 - API Key 安全:優先使用
.env文件或環境變量,避免直接寫入config.yaml - 內置 Skills:善用 research、report-generation、slide-creation 等內置 skills,大幅提升效率
- 記憶功能:多用
/memory查看和積累長期記憶,讓 agent 更了解您的習慣 - 獲取幫助:遇到問題時使用
/help命令,或查閱官方文檔
八、DeerFlow 和 OpenClaw 的比較
這兩個都是目前開源社群的當紅炸子雞,但它們的定位和擅長的領域其實很不一樣。簡單來說,DeerFlow 比較像一個「自備電腦和團隊的超級研究員」,而 OpenClaw 則是一個「手腳勤快、擅長用各種通訊軟體幫你幹活的多面手助理」。
下面是它們核心差異的對比:
🤔 那到底哪一個「比較強」?
與其問「誰更強」,不如問「哪個更適合你的需求」。這就像比較「工作站」和「瑞士刀」一樣,強項完全不同。
🦌 選擇 DeerFlow,如果你是:
- 目標是執行複雜專案:你的任務需要多步驟規劃,例如「研究OpenClaw和DeerFlow的差異,寫一篇對比報告,並生成一個圖表簡報」。
- 需要安全、可復現的環境:你希望AI的程式碼執行和文件操作都在一個隔離的「沙箱」裡,避免影響主系統,也方便排查問題。
- 追求架構上的嚴謹性:你欣賞由一個主管Agent調度多個專業子Agent的分工模式,希望流程清晰可控。
- 你是開發者,希望深度集成:你想要在Claude Code終端裡直接指揮一個強大的Agent來完成工作。
🦞 選擇 OpenClaw,如果你是:
- 目標是自動化日常個人/辦公任務:你想要一個AI幫你管理郵件、整理桌面文件、定時爬取特定資訊並發到你的Telegram頻道。
- 需要多平台接入,隨喚隨到:你想要透過手機上的Discord或飛書,隨時隨地給AI下指令,讓它去執行任務。
- 看重豐富的生態和即戰力:社區有大量現成的技能可以直接安裝使用,覆蓋從瀏覽器控制到社交媒體管理的各種場景。
- 喜歡數據在自己手上的感覺:所有的對話記錄和記憶都以純文字檔案形式存在你的電腦裡,透明且易於管理。
💎 總結
總的來說,DeerFlow 的「強」在於其架構的嚴謹性和執行複雜任務的深度,更像一個專業的「專案執行團隊」;而 OpenClaw 的「強」在於其使用的便利性、接入渠道的廣泛性和生態的成熟度,更像一個貼身的「萬能生活秘書」。
兩者並非完全對立的競爭關係,甚至有評論認為,DeerFlow 可以視為在 OpenClaw 這類「Claw-like」個人助理生態熱潮下,誕生的一個更側重於後台執行能力的、專業化的新分支。最終選擇哪一個,完全取決於你想用它來解決什麼樣的問題。
九、參考相關資源
十、附錄: 更多有關config.yaml的設定範例
以下是根據 DeerFlow 的 config.yaml 格式,配置 OpenRouter 和 Ollama 的範例。請將以下內容加入或替換原有的 models 列表。
✅ OpenRouter 設定範例
OpenRouter 提供 OpenAI 相容的 API,因此可直接使用 langchain_openai:ChatOpenAI,並透過 base_url 指向 OpenRouter 的端點。
models:
# 原有模型可保留...
# OpenRouter 上的模型 (以 Gemini 2.5 Flash 為例)
- name: openrouter-gemini-2.5-flash
display_name: Gemini 2.5 Flash (OpenRouter)
use: langchain_openai:ChatOpenAI
model: google/gemini-2.5-flash-preview # OpenRouter 的模型識別碼
api_key: $OPENROUTER_API_KEY # 建議使用環境變數
base_url: https://openrouter.ai/api/v1
max_tokens: 4096
temperature: 0.7
對應的 .env 設定:
OPENROUTER_API_KEY=your-openrouter-api-key
✅ Ollama 設定範例(兩種方式)
方式一:使用 Ollama 原生 LangChain 整合(推薦)
需確保 DeerFlow 環境已安裝 langchain-ollama(可透過 pip install langchain-ollama 安裝)。
此方式直接利用 Ollama 的本地 API,無需 API Key。
models:
- name: ollama-llama3
display_name: Ollama Llama 3
use: langchain_ollama:ChatOllama
model: llama3:latest # 您已在 Ollama 下載的模型名稱
base_url: http://localhost:11434 # Ollama 預設位址
temperature: 0.8
# Ollama 不支援 max_tokens 參數,請用 num_predict(若需要)
# 可透過 model_kwargs 傳遞其他參數:
model_kwargs:
num_predict: 2048
方式二:使用 Ollama 的 OpenAI 相容 API
Ollama 從 0.1.14 版本起支援 OpenAI 相容 API(預設位址 http://localhost:11434/v1),因此也可使用 langchain_openai:ChatOpenAI 接入。
models:
- name: ollama-llama3-openai-compat
display_name: Ollama Llama 3 (OpenAI Compatible)
use: langchain_openai:ChatOpenAI
model: llama3:latest # 模型名稱
api_key: dummy # Ollama 不需要 key,但必須填非空值
base_url: http://localhost:11434/v1
max_tokens: 2048
temperature: 0.7
注意:若使用方式二,請確保 Ollama 的 API 服務正常運行(執行
ollama serve),且模型已下載(如ollama pull llama3)。
🔧 設定後續步驟
- 確認依賴
- 若使用原生 Ollama 類,請在
deer-flow環境中安裝langchain-ollama:bash pip install langchain-ollama - 若使用 OpenRouter 或 OpenAI 相容方式,
langchain-openai通常已預設安裝。
- 設定環境變數(如適用)
編輯根目錄的.env文件,加入對應的 API Key:
OPENROUTER_API_KEY=sk-or-v1-xxxxxxxxxxxxx
# Ollama 不需要設定 key
- 啟動 DeerFlow
使用make dev或make docker-start啟動,DeerFlow 會自動載入config.yaml中定義的模型。
💡 補充說明
- 模型內部名稱 (
name):您可以在對話中切換模型,DeerFlow 會根據此欄位識別。 use欄位:對應 LangChain 的導入路徑(模組:類別),例如langchain_openai:ChatOpenAI表示從langchain_openai導入ChatOpenAI類。- 其他參數:可參考 LangChain 官方文件,將額外參數寫入
model_kwargs中(如 Ollama 的num_ctx、top_k等)。
這樣設定後,您就可以在 DeerFlow 中同時使用 OpenRouter 上的商業模型和本地的 Ollama 模型,自由切換。
按照本指南的步驟操作,您應該能夠順利啟動並使用 DeerFlow。隨著使用深入,您會發現它作為 超級智能體整合框架/工具 (Super Agent Harness) 的強大之處 —— 從研究、數據處理到內容生成,幾乎無所不能。祝您使用愉快!🦌



