超級智能體整合框架/工具: DeerFlow 新手完全使用指南 (附: 和龍蝦的比較)

2026-03-20 By 天上雲 0

🦌 DeerFlow

DeerFlow 不只是一個研究工具,更是一個讓 Agents 真正完成任務的運行時基礎設施。它的核心特點包括:

  • Skills 與 Tools:通過結構化能力模塊擴展功能,按需加載,避免上下文過載
  • Sub-Agents:複雜任務會被拆解,由多個 sub-agents 並行處理,最後匯總結果
  • Sandbox 與文件系統:每個任務都在隔離的 Docker 容器中運行,擁有完整的文件系統
  • 長期記憶:跨 session 累積關於您的個人偏好、知識背景和工作習慣
  • Context Engineering:每個 sub-agent 擁有獨立上下文,並具備摘要壓縮能力

DeerFlow 的核心特性與功能:
多智能體協作: 採用模組化架構,包含協調器(Coordinator)、規劃器(Planner)、研究員(Researcher)、編碼員(Coder)和報告員(Reporter),各司其職。
端到端自動化研究: 輸入研究主題,DeerFlow 可自主完成搜尋、閱讀、資料分析、程式碼運行及最終報告撰寫。
支援 MCP 系統: 整合 MCP(Model Context Protocol)服務,可擴充連接各種外部工具(如高德地圖、知識庫等)。
技術堆疊: 基於 Python 3.12+ 和 LangGraph,提供控制台與 Web UI。
應用情境: 廣泛應用於複雜趨勢分析(如市場研究)、資料分析、自動化產業報告撰寫,以及多模態內容(如播客、PPT)產生。

演進版本:
2026年3月發布的 DeerFlow 2.0 被定位為“超級智能體執行底座”,不僅限於查資料,還支持 Docker 沙箱、持久化記憶,可自主幹完整項目,是 OpenAI Deep Research 的開源替代方案。

步驟 1:克隆倉庫並生成配置

bash

git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
make config  # 基於示例模板生成本地配置文件

步驟 2:配置模型

編輯 config.yaml 文件,定義至少一個模型。以下是幾個範例 (更多的範例在下面附錄):

yaml

models:
  - name: gpt-4                       # 內部標識
    display_name: GPT-4               # 展示名稱
    use: langchain_openai:ChatOpenAI
    model: gpt-4
    api_key: $OPENAI_API_KEY
    max_tokens: 4096
    temperature: 0.7

  - name: openrouter-gemini-2.5-flash
    display_name: Gemini 2.5 Flash (OpenRouter)
    use: langchain_openai:ChatOpenAI
    model: google/gemini-2.5-flash-preview
    api_key: $OPENAI_API_KEY
    base_url: https://openrouter.ai/api/v1

步驟 3:設置 API Key

您可以選擇以下任一方式:

方式 A(推薦):編輯項目根目錄下的 .env 文件

env

TAVILY_API_KEY=your-tavily-api-key
OPENAI_API_KEY=your-openai-api-key

方式 B:在 shell 中導出環境變量

bash

export OPENAI_API_KEY=your-openai-api-key

方式 C:直接編輯 config.yaml(不建議用於生產環境)

步驟 4:運行應用

方式一:Docker(推薦)

bash

make docker-init   # 拉取 sandbox 鏡像(首次運行或鏡像更新時執行)
make docker-start  # 啟動服務

生產模式:

bash

make up     # 構建鏡像並啟動全部生產服務
make down   # 停止並移除容器

方式二:本地開發

bash

make check    # 檢查依賴環境(Node.js 22+、pnpm、uv、nginx)
make install  # 安裝後端 + 前端依賴
make setup-sandbox  # 預拉取 sandbox 鏡像(可選)
make dev      # 啟動服務

1. Sandbox 模式配置

DeerFlow 支持三種 sandbox 執行方式:

  • 本地執行:直接在宿主機上運行 sandbox 代碼
  • Docker 執行:在隔離的 Docker 容器中運行
  • Docker + Kubernetes 執行:通過 provisioner 服務在 Kubernetes Pod 中運行

配置示例(在 config.yaml 中):

yaml

sandbox:
  use: deerflow.community.aio_sandbox:AioSandboxProvider
  provisioner_url: http://localhost:8001

2. MCP Server 配置

DeerFlow 支持可配置的 MCP Server 和 skills,用於擴展能力。詳細說明請參閱 MCP Server 指南

3. IM 渠道配置

DeerFlow 支持從即時通訊應用接收任務,無需公網 IP。

Telegram 配置

  1. 打開 @BotFather,發送 /newbot,複製生成的 HTTP API token
  2. 在 .env 中設置 TELEGRAM_BOT_TOKEN
  3. 在 config.yaml 中啟用該渠道

Slack 配置

  1. 前往 api.slack.com/apps 創建 Slack App
  2. 在 OAuth & Permissions 中添加 Bot Token Scopes:app_mentions:readchat:writeim:historyim:readim:writefiles:write
  3. 啟用 Socket Mode,生成帶 connections:write 權限的 App-Level Token(xapp-…)
  4. 在 Event Subscriptions 中訂閱 bot events:app_mentionmessage.im
  5. 在 .env 中設置 SLACK_BOT_TOKEN 和 SLACK_APP_TOKEN

飛書 / Lark 配置

  1. 在 飛書開放平台 創建應用,啟用 Bot 能力
  2. 添加權限:im:messageim:message.p2p_msg:readonlyim:resource
  3. 在事件訂閱中訂閱 im.message.receive_v1,連接方式選擇「長連接」
  4. 複製 App ID 和 App Secret,在 .env 中設置 FEISHU_APP_ID 和 FEISHU_APP_SECRET

渠道連接完成後,您可以直接在聊天窗口中使用以下命令:

命令說明
/new開啟新對話
/status查看當前 thread 信息
/models列出可用模型
/memory查看 memory
/help查看幫助

沒有命令前綴的消息會被當作普通聊天處理。

1. 使用 Skills

Skills 存放在以下路徑:

text

/mnt/skills/public/      # 內置 skills
├── research/SKILL.md
├── report-generation/SKILL.md
├── slide-creation/SKILL.md
└── ...

/mnt/skills/custom/       # 您的自定義 skills
└── your-custom-skill/SKILL.md

您可以添加自己的 skills,替換內置 skills,或組合多個 skills 形成複合工作流。

2. Claude Code 集成

安裝 claude-to-deerflow skill:

bash

npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow

確認 DeerFlow 已啟動(默認地址:http://localhost:2026),在 Claude Code 中使用 /claude-to-deerflow 命令即可交互。

可執行的操作:

  • 發送消息並接收流式響應
  • 選擇執行模式:flash(更快)、standard、pro(規劃模式)、ultra(sub-agents 模式)
  • 檢查健康狀態、列出 models/skills/agents
  • 管理 threads 和會話歷史
  • 上傳文件進行分析

3. 使用 Python Client(內嵌方式)

無需啟動完整 HTTP 服務,直接作為 Python 庫使用:

python

from deerflow.client import DeerFlowClient

client = DeerFlowClient()

# 基本對話
response = client.chat("幫我分析這篇論文", thread_id="my-thread")

# 流式輸出
for event in client.stream("hello"):
    if event.type == "messages-tuple" and event.data.get("type") == "ai":
        print(event.data["content"])

# 配置與管理
models = client.list_models()        # 列出模型
skills = client.list_skills()        # 列出 skills
client.update_skill("web-search", enabled=True)  # 啟用 skill
client.upload_files("thread-1", ["./report.pdf"])  # 上傳文件

DeerFlow 對模型沒有強綁定,只要實現 OpenAI 兼容 API 的 LLM 都可以接入。推薦使用具備以下能力的模型:

  • 長上下文窗口(100k+ tokens)
  • 強大的推理能力
  • 多模態輸入能力
  • 穩定的 tool use 能力

官方推薦:Doubao-Seed-2.0-Code、DeepSeek v3.2、Kimi 2.5

  1. 首次使用:建議先用 Docker 模式快速體驗,熟悉後再嘗試本地開發
  2. 配置檢查:使用 make check 確保所有依賴都已正確安裝
  3. API Key 安全:優先使用 .env 文件或環境變量,避免直接寫入 config.yaml
  4. 內置 Skills:善用 research、report-generation、slide-creation 等內置 skills,大幅提升效率
  5. 記憶功能:多用 /memory 查看和積累長期記憶,讓 agent 更了解您的習慣
  6. 獲取幫助:遇到問題時使用 /help 命令,或查閱官方文檔

這兩個都是目前開源社群的當紅炸子雞,但它們的定位和擅長的領域其實很不一樣。簡單來說,DeerFlow 比較像一個「自備電腦和團隊的超級研究員」,而 OpenClaw 則是一個「手腳勤快、擅長用各種通訊軟體幫你幹活的多面手助理」

下面是它們核心差異的對比:

維度🦌 DeerFlow (超級智能體整合框架)🦞 OpenClaw (個人AI助理平台)
核心定位超級智能體整合框架 / 執行引擎
重點在「把事情做完」。提供一個能讓AI執行複雜、長時間任務的完整後台。
個人AI助理平台
重點在「隨時待命」。讓你透過熟悉的聊天軟體指揮AI自動化日常任務。
架構設計Lead Agent + Sub-Agents
一個主管Agent負責拆解任務,動態指揮多個專門的子Agent並行工作
單一Agent + 豐富Skill
Agent本身集成大量技能,可以調用各種工具,但任務通常由自己完成。
執行環境強制隔離 (Docker沙箱)
每個任務都在隔離的Docker容器裡執行,擁有自己獨立的完整文件系統
本地直接執行
直接在你給予權限的電腦或伺服器上執行指令,可以操作文件、打開軟體
擅長場景複雜、多步驟、需深度研究
例如:自動化市場調研並生成報告、開發一個小網站、分析數據並製作PPT
快速、廣泛、與通訊軟體深度集成
例如:管理郵件和日程、監控價格並提醒、跨軟體自動化辦公(如整理文檔發到群組)
生態與接入模型無關,支持任何OpenAI兼容API。內建Claude Code集成,開發者可在終端直接調用消息平台優先,原生支持Telegram、Discord、Slack、飛書等十幾種渠道。擁有龐大的社區Skill生態(700+)
上下文與記憶上下文工程:主動摘要、壓縮、隔離子Agent上下文,防止窗口爆掉。長期記憶可跨session累積偏好持久記憶:將對話和關鍵信息保存在本地文件(如MEMORY.md)。最新版本引入可插拔上下文引擎(如lossless-claw插件),實現永不遺忘

🤔 那到底哪一個「比較強」?

與其問「誰更強」,不如問「哪個更適合你的需求」。這就像比較「工作站」和「瑞士刀」一樣,強項完全不同。

🦌 選擇 DeerFlow,如果你是:

  • 目標是執行複雜專案:你的任務需要多步驟規劃,例如「研究OpenClaw和DeerFlow的差異,寫一篇對比報告,並生成一個圖表簡報」。
  • 需要安全、可復現的環境:你希望AI的程式碼執行和文件操作都在一個隔離的「沙箱」裡,避免影響主系統,也方便排查問題
  • 追求架構上的嚴謹性:你欣賞由一個主管Agent調度多個專業子Agent的分工模式,希望流程清晰可控。
  • 你是開發者,希望深度集成:你想要在Claude Code終端裡直接指揮一個強大的Agent來完成工作

🦞 選擇 OpenClaw,如果你是:

  • 目標是自動化日常個人/辦公任務:你想要一個AI幫你管理郵件、整理桌面文件、定時爬取特定資訊並發到你的Telegram頻道
  • 需要多平台接入,隨喚隨到:你想要透過手機上的Discord或飛書,隨時隨地給AI下指令,讓它去執行任務
  • 看重豐富的生態和即戰力:社區有大量現成的技能可以直接安裝使用,覆蓋從瀏覽器控制到社交媒體管理的各種場景
  • 喜歡數據在自己手上的感覺:所有的對話記錄和記憶都以純文字檔案形式存在你的電腦裡,透明且易於管理

💎 總結

總的來說,DeerFlow 的「強」在於其架構的嚴謹性和執行複雜任務的深度,更像一個專業的「專案執行團隊」;而 OpenClaw 的「強」在於其使用的便利性、接入渠道的廣泛性和生態的成熟度,更像一個貼身的「萬能生活秘書」

兩者並非完全對立的競爭關係,甚至有評論認為,DeerFlow 可以視為在 OpenClaw 這類「Claw-like」個人助理生態熱潮下,誕生的一個更側重於後台執行能力的、專業化的新分支。最終選擇哪一個,完全取決於你想用它來解決什麼樣的問題。

以下是根據 DeerFlow 的 config.yaml 格式,配置 OpenRouterOllama 的範例。請將以下內容加入或替換原有的 models 列表。

✅ OpenRouter 設定範例

OpenRouter 提供 OpenAI 相容的 API,因此可直接使用 langchain_openai:ChatOpenAI,並透過 base_url 指向 OpenRouter 的端點。

models:
  # 原有模型可保留...

  # OpenRouter 上的模型 (以 Gemini 2.5 Flash 為例)
  - name: openrouter-gemini-2.5-flash
    display_name: Gemini 2.5 Flash (OpenRouter)
    use: langchain_openai:ChatOpenAI
    model: google/gemini-2.5-flash-preview   # OpenRouter 的模型識別碼
    api_key: $OPENROUTER_API_KEY              # 建議使用環境變數
    base_url: https://openrouter.ai/api/v1
    max_tokens: 4096
    temperature: 0.7

對應的 .env 設定:

OPENROUTER_API_KEY=your-openrouter-api-key

✅ Ollama 設定範例(兩種方式)

方式一:使用 Ollama 原生 LangChain 整合(推薦)

需確保 DeerFlow 環境已安裝 langchain-ollama(可透過 pip install langchain-ollama 安裝)。
此方式直接利用 Ollama 的本地 API,無需 API Key。

models:
  - name: ollama-llama3
    display_name: Ollama Llama 3
    use: langchain_ollama:ChatOllama
    model: llama3:latest               # 您已在 Ollama 下載的模型名稱
    base_url: http://localhost:11434   # Ollama 預設位址
    temperature: 0.8
    # Ollama 不支援 max_tokens 參數,請用 num_predict(若需要)
    # 可透過 model_kwargs 傳遞其他參數:
    model_kwargs:
      num_predict: 2048

方式二:使用 Ollama 的 OpenAI 相容 API

Ollama 從 0.1.14 版本起支援 OpenAI 相容 API(預設位址 http://localhost:11434/v1),因此也可使用 langchain_openai:ChatOpenAI 接入。

models:
  - name: ollama-llama3-openai-compat
    display_name: Ollama Llama 3 (OpenAI Compatible)
    use: langchain_openai:ChatOpenAI
    model: llama3:latest               # 模型名稱
    api_key: dummy                     # Ollama 不需要 key,但必須填非空值
    base_url: http://localhost:11434/v1
    max_tokens: 2048
    temperature: 0.7

注意:若使用方式二,請確保 Ollama 的 API 服務正常運行(執行 ollama serve),且模型已下載(如 ollama pull llama3)。


🔧 設定後續步驟

  1. 確認依賴
  • 若使用原生 Ollama 類,請在 deer-flow 環境中安裝 langchain-ollama
    bash pip install langchain-ollama
  • 若使用 OpenRouter 或 OpenAI 相容方式,langchain-openai 通常已預設安裝。
  1. 設定環境變數(如適用)
    編輯根目錄的 .env 文件,加入對應的 API Key:
   OPENROUTER_API_KEY=sk-or-v1-xxxxxxxxxxxxx
   # Ollama 不需要設定 key
  1. 啟動 DeerFlow
    使用 make devmake docker-start 啟動,DeerFlow 會自動載入 config.yaml 中定義的模型。

💡 補充說明

  • 模型內部名稱 (name):您可以在對話中切換模型,DeerFlow 會根據此欄位識別。
  • use 欄位:對應 LangChain 的導入路徑(模組:類別),例如 langchain_openai:ChatOpenAI 表示從 langchain_openai 導入 ChatOpenAI 類。
  • 其他參數:可參考 LangChain 官方文件,將額外參數寫入 model_kwargs 中(如 Ollama 的 num_ctxtop_k 等)。

這樣設定後,您就可以在 DeerFlow 中同時使用 OpenRouter 上的商業模型和本地的 Ollama 模型,自由切換。


書籤 (0)
請登入後才能加入書籤 關閉
計數器 (分享 | 讚好 | 推薦)
Spread the love (分享 傳播愛)