DeerFlow
深度完全教程
Deep Exploration and Efficient Research Flow —— 下一代开源 SuperAgent Harness,从架构到实战的全面指南。
项目概述
What is DeerFlow?
DeerFlow(Deep Exploration and Efficient Research Flow)是 ByteDance 于 2026 年 2 月 28 日正式开源的 SuperAgent Harness 框架。它不是一个简单的 Agent 封装,而是一整套支持深度研究、代码执行、多 Sub-Agent 协作、持久化记忆和 IM 集成的高阶智能体基础设施,项目一经发布即登上 GitHub Trending 第一名,并在短时间内突破 40,000 星。
SuperAgent Harness = 在 LLM Agent 之上提供"运行时容器"——包含执行环境、上下文管理、工具调用、记忆系统和消息频道等全套基础设施,让开发者专注于业务逻辑而非底层架构。
名称解读
支持多轮、多步骤的深度研究任务,能够自主分解复杂问题、调度多个专项 Sub-Agent 并行工作。
通过 Context 压缩、沙箱缓存、并行调度等手段,在不损失质量的前提下大幅提升研究效率。
以数据流和事件驱动的架构风格,将任务从输入到输出的全生命周期设计为清晰、可观测的 Flow。
v1 vs v2 演进对比
| 维度 | v1 | v2 |
|---|---|---|
| 架构模型 | 单 Agent + Tools | SuperAgent Harness + Sub-Agents |
| 执行环境 | 无沙箱,直接执行 | Docker 隔离沙箱 + 多模式切换 |
| 记忆系统 | 单轮 Conversation Buffer | 多层持久化记忆(Session/User/Global) |
| Skills 系统 | 内置固定工具集 | 动态 Skills 注册 + 热加载 |
| IM 集成 | REST API only | Telegram / Slack / Feishu 原生支持 |
| 模型支持 | GPT-4o / Claude | Doubao / DeepSeek / Kimi / GPT-4o / Claude |
| Python SDK | 无 | 完整 SSE 流式 SDK |
| 配置系统 | .env 文件 | config.yaml + .env 分层配置 |
核心能力全景
自动分解研究任务,调用搜索、爬取、代码分析等多种工具,生成结构化报告。
在 Docker 隔离沙箱中安全执行 Python/Shell 代码,支持文件读写和包安装。
动态生成专项子 Agent,每个子 Agent 拥有独立上下文和技能集,并行处理任务。
跨 Session 记忆用户偏好、项目背景,支持用户主动管理和自动更新。
一键接入 Telegram、Slack、Feishu,支持群聊、私聊和文件发送。
开放的 Skills 注册系统,社区贡献和自定义扩展同等一流体验。
DeerFlow 是目前开源社区中 功能最完整的 SuperAgent 框架之一,尤其在"深度研究 + 代码执行 + IM 集成"三者结合上处于领先地位。
架构设计:计算机隐喻模型
The Computer Metaphor — Understanding DeerFlow's Architecture
DeerFlow 的架构设计借用了一个精妙的计算机隐喻:整个 Harness 就像一台虚拟计算机,每个组件都对应计算机的一个硬件/软件概念,这使得架构极易理解和记忆。
计算机隐喻对照表
| DeerFlow 组件 | 计算机类比 | 职责说明 | 技术实现 |
|---|---|---|---|
| Docker 沙箱 | CPU | 核心计算单元,隔离代码执行,防止污染宿主环境 | Docker container, resource limits |
| Context Window | RAM | 工作记忆,存储当前任务状态,超出时自动压缩 | Token counter + summarization |
| Sub-Agents | CPU Cores | 并行处理不同任务,各自拥有独立上下文 | Async task queue + isolation |
| Skills | Peripherals | 可插拔外设,搜索/浏览器/文件/API 等能力扩展 | Plugin registry + hot-reload |
| Memory Store | HDD/SSD | 持久化存储,跨会话保留用户偏好和项目上下文 | Vector DB + Key-Value Store |
| LLM Provider | Network Card | 外部计算资源,通过统一接口调用不同模型 | OpenAI-compatible API adapter |
核心组件
Lead Agent, State Machine & Request Flow
Lead Agent:主控智能体
Lead Agent 是 DeerFlow 的"大脑",扮演 Supervisor 角色。它不直接执行任务,而是负责:
- 任务分解:将用户请求拆分为可并行的子任务
- 资源调度:为每个子任务分配合适的 Sub-Agent
- 进度追踪:监控所有子 Agent 的执行状态
- 结果聚合:将多个子 Agent 的输出整合为最终响应
- 错误恢复:检测失败并重试或降级处理
Lead Agent 采用 ReAct(Reasoning + Acting) 范式,每一步都明确区分"思考"和"行动"阶段,确保决策可追溯、可解释。
状态机:任务生命周期
每个任务在 DeerFlow 中都经历一个明确的状态机流转:
| 状态 | 描述 | 可能转换 |
|---|---|---|
| Idle | 等待用户输入或事件触发 | → Planning |
| Planning | Lead Agent 分析请求、制定执行计划 | → Executing | → Idle(无效请求) |
| Executing | Sub-Agents 并行执行子任务 | → Aggregating | → Planning(重规划) |
| Aggregating | 汇总所有子任务结果,生成最终答案 | → Delivering |
| Delivering | 通过 SSE / IM / API 流式输出结果 | → Idle |
请求流:从输入到输出
以下是一个完整请求从用户输入到最终响应的详细时序:
通过 Telegram/API/SDK 发送请求,Gateway 层验证身份并创建 Session,分配唯一 task_id。
Memory Store 检索该用户的历史偏好、项目背景和最近会话摘要,注入到 Lead Agent 的 Context 中。
Lead Agent 调用 LLM 进行任务分析,输出结构化执行计划:任务列表、所需 Skills、目标 Sub-Agent 类型。
根据计划动态生成所需的 Sub-Agents,每个 Sub-Agent 获得独立的 Context、技能集和沙箱实例,异步并行执行。
Sub-Agents 调用注册的 Skills(搜索/代码/文件等),代码执行在 Docker 沙箱中进行,结果流式返回给 Sub-Agent。
Lead Agent 收集所有 Sub-Agent 的输出,进行交叉验证、去重和整合,生成高质量最终答案。
将本次会话的关键信息写入 Memory Store,同时通过 SSE 流式或消息推送方式将结果发送给用户。
快速入门
Get DeerFlow Running in Minutes
环境要求
部署路径选择
最简单的生产级部署方式,一键启动所有服务包括沙箱、数据库、前端。
- ✅ 自动处理依赖
- ✅ 沙箱隔离完整
- ✅ 一键启动
适合开发者调试和二次开发,可以快速迭代代码改动。
- ✅ 热重载支持
- ✅ 调试友好
- ⚠️ 需手动配置环境
方式一:Docker 部署(推荐)
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
cp .env.example .env
# 编辑 .env,填入 LLM API Key
vi .env
docker compose up -d
# 查看服务状态
docker compose ps
服务启动后,访问以下地址:
| 服务 | 地址 | 说明 |
|---|---|---|
| Web UI | http://localhost:3000 | 前端交互界面 |
| API Server | http://localhost:8000 | REST API / SSE |
| API Docs | http://localhost:8000/docs | Swagger UI |
方式二:本地开发部署
# 1. 安装 Python 依赖(使用 uv)
curl -LsSf https://astral.sh/uv/install.sh | sh
uv sync
# 2. 安装前端依赖
cd web && npm install && cd ..
# 3. 启动后端服务
uv run python -m deerflow.server
# 4. 启动前端开发服务器(新终端)
cd web && npm run dev
# 5. 启动 Docker 沙箱(代码执行需要)
docker compose up sandbox -d
本地开发模式下,代码执行沙箱仍然需要 Docker。如果不启动 Docker,代码执行功能将降级为直接本地执行(存在安全风险)。
配置系统
config.yaml + .env — Layered Configuration
DeerFlow 采用分层配置策略:config.yaml 管理系统行为配置,.env 管理敏感凭证(API Keys),两者分开维护,便于版本控制和团队协作。
config.yaml 完整注释
# DeerFlow 主配置文件
# 位置:项目根目录 config.yaml
# ── LLM 配置 ──────────────────────────────────────────
llm:
# 主模型:负责 Lead Agent 的规划和决策(推荐使用较强模型)
default_model: "deepseek-chat"
# 研究模型:Sub-Agent 执行搜索和分析(可使用较轻量模型)
research_model: "deepseek-chat"
# 代码模型:代码生成和审查
code_model: "deepseek-coder"
# 最大 Token 限制
max_tokens: 8192
# 温度参数(0.0-1.0,研究任务推荐 0.3-0.7)
temperature: 0.5
# 推理模式(仅支持推理模型)
enable_reasoning: false
# ── Sub-Agent 配置 ─────────────────────────────────────
agents:
# 最大并行 Sub-Agent 数量
max_concurrent: 5
# 单个 Sub-Agent 最大执行时长(秒)
timeout: 300
# Context 压缩阈值(token 数,超过后自动摘要)
context_compress_threshold: 6000
# 最大递归深度(防止 Agent 无限循环)
max_recursion_depth: 10
# ── 沙箱配置 ────────────────────────────────────────────
sandbox:
# 执行模式:docker | local | e2b
mode: "docker"
# Docker 镜像
image: "deerflow/sandbox:latest"
# CPU 限制(核心数)
cpu_limit: 2.0
# 内存限制
memory_limit: "2g"
# 网络访问(代码执行时是否允许网络)
network_access: false
# 文件挂载(宿主机路径:容器路径)
volumes:
- "./workspace:/workspace"
# ── 记忆系统配置 ─────────────────────────────────────────
memory:
# 启用持久化记忆
enabled: true
# 存储后端:sqlite | postgres | redis
backend: "sqlite"
# 记忆自动更新触发条件(每 N 次会话)
auto_update_interval: 5
# 最大存储条目数(per user)
max_entries_per_user: 1000
# ── Skills 配置 ──────────────────────────────────────────
skills:
# 技能目录(相对路径)
skills_dir: "./skills"
# 自动发现并加载技能
auto_discover: true
# 默认启用的内置技能
builtin_enabled:
- web_search
- web_browse
- code_execute
- file_read
- file_write
# ── 服务配置 ─────────────────────────────────────────────
server:
host: "0.0.0.0"
port: 8000
# CORS 配置
cors_origins:
- "http://localhost:3000"
- "https://your-domain.com"
# 请求速率限制(每分钟)
rate_limit: 60
# 最大并发任务数
max_concurrent_tasks: 20
# ── 日志配置 ─────────────────────────────────────────────
logging:
level: "INFO" # DEBUG | INFO | WARNING | ERROR
format: "json" # json | text
file: "./logs/deerflow.log"
模型矩阵
| 模型 | 提供商 | 推荐场景 | Context | 特点 |
|---|---|---|---|---|
| Doubao Pro | ByteDance | 默认推荐,低成本高性能 | 128K | 本土 |
| DeepSeek V3 | DeepSeek | 深度推理,代码生成 | 64K | 开源 |
| Kimi k1.5 | Moonshot | 长文档处理,研究任务 | 200K | 长上下文 |
| GPT-4o | OpenAI | 多模态,通用任务 | 128K | 多模态 |
| Claude Sonnet | Anthropic | 写作,代码审查 | 200K | 写作强 |
.env 环境变量参考
# ── LLM API Keys ─────────────────────────────────────
OPENAI_API_KEY=sk-...
ANTHROPIC_API_KEY=sk-ant-...
DEEPSEEK_API_KEY=sk-...
MOONSHOT_API_KEY=...
ARK_API_KEY=... # ByteDance Doubao
# ── 自定义 API Base(代理/本地部署)
OPENAI_BASE_URL=https://api.openai.com/v1
# ── 搜索工具 API Keys ─────────────────────────────────
TAVILY_API_KEY=tvly-...
BRAVE_SEARCH_API_KEY=BSA...
SERPAPI_API_KEY=...
# ── IM 集成 ────────────────────────────────────────────
TELEGRAM_BOT_TOKEN=123456789:ABC...
SLACK_BOT_TOKEN=xoxb-...
FEISHU_APP_ID=cli_...
FEISHU_APP_SECRET=...
# ── 数据库(可选,默认使用 SQLite)
DATABASE_URL=postgresql://user:pass@localhost/deerflow
# ── 安全配置 ──────────────────────────────────────────
SECRET_KEY=your-secret-key-here
API_KEY=deerflow-api-key-for-clients
Skills 技能系统
The Plugin Ecosystem — Extending DeerFlow's Capabilities
Skills 是 DeerFlow 的能力扩展单元,类比计算机的外设驱动程序。每个 Skill 封装一个具体的工具能力(搜索、浏览器、文件操作、API 调用等),Agent 可以按需调用。
Skills 目录结构
Skill 生命周期
自定义 Skill 文件结构
from deerflow.skills import BaseSkill, SkillResult
from deerflow.skills.registry import register_skill
from pydantic import BaseModel, Field
class MySkillInput(BaseModel):
"""技能输入参数定义(使用 Pydantic 进行类型校验)"""
query: str = Field(..., description="搜索查询词")
max_results: int = Field(default=5, description="最大结果数")
@register_skill(
name="my_custom_skill", # 技能唯一标识
description="我的自定义搜索技能,用于...", # Agent 用来决策是否调用
category="search", # 分类:search/code/file/api/custom
version="1.0.0",
author="your-name",
)
class MyCustomSkill(BaseSkill):
"""自定义技能示例"""
# 声明输入 Schema
InputSchema = MySkillInput
async def execute(self, input: MySkillInput) -> SkillResult:
"""
技能核心执行逻辑。
- 支持 async/await
- 支持流式输出(yield)
- 可访问 self.context 获取当前 Agent 上下文
"""
try:
# 你的实现逻辑
results = await self._do_search(input.query, input.max_results)
return SkillResult(
success=True,
data=results,
metadata={
"source": "my_custom_skill",
"query": input.query,
"count": len(results),
}
)
except Exception as e:
return SkillResult(success=False, error=str(e))
async def _do_search(self, query: str, max_results: int) -> list:
# 实现具体逻辑
return []
Sub-Agents
Parallel Intelligence — How Sub-Agents Work
Sub-Agents 是 DeerFlow 的并行执行单元,每个 Sub-Agent 是一个轻量级、独立的 Agent 实例,由 Lead Agent 在运行时动态生成,专门负责一个特定子任务。
Sub-Agent 工作原理
每个 Sub-Agent 在创建时被赋予明确的单一职责(研究/代码/写作),避免角色混乱。
每个 Sub-Agent 拥有独立的 Context Window,避免不同任务的上下文互相污染。
多个 Sub-Agent 异步并行运行,显著缩短复杂任务的完成时间。
Sub-Agent 完成任务后自动销毁,释放资源,由 Lead Agent 统一管理生命周期。
隔离属性
✅ 已隔离
- Context Window(独立)
- 工具调用历史
- 中间推理过程
- 文件系统访问(可选)
- LLM 温度/模型配置
- 错误状态
🔗 共享(通过 Lead)
- 用户持久化记忆
- 任务全局目标
- 已注册的 Skills
- Docker 沙箱实例
- 会话配置
- 最终结果聚合池
Context 压缩管道
当 Sub-Agent 的 Context 超过阈值(默认 6000 tokens)时,触发压缩流程:
Context 压缩采用"保留最近 + 摘要远端"策略:始终保留最近的 N 轮对话(保证连贯性),对更早的历史生成摘要(节省 Token 同时保留关键信息)。
沙箱执行环境
Isolated Code Execution — Safety First
DeerFlow 的沙箱执行环境是代码安全执行的基石。所有由 Agent 生成的代码都在完全隔离的环境中运行,防止恶意代码污染宿主系统。
三种执行模式对比
完整 Linux 容器隔离,支持所有操作系统调用,资源限制精确。
延迟:~200ms 启动
直接在宿主机虚拟环境执行,速度最快但隔离性最弱。
延迟:~10ms 启动
使用 E2B 云沙箱服务,无需本地 Docker,适合 Serverless 部署。
延迟:~500ms 启动
沙箱文件系统结构
安全特性
代码执行容器默认无网络访问,防止数据外泄和恶意外连。需要时可通过配置开启白名单。
每次代码执行有硬性超时限制(默认 60 秒),超时后容器强制终止,防止死循环。
CPU 和内存配额严格限制(默认 2 core / 2GB),防止资源耗尽攻击。
任务完成后容器自动销毁,临时文件全部清除,无状态残留。
持久化记忆系统
Cross-Session Memory — Making DeerFlow Remember You
DeerFlow 的持久化记忆系统让 Agent 能够跨会话记住用户偏好、项目背景和历史结论,避免每次都从零开始。这是区别于普通 Chatbot 的关键能力之一。
记忆层次架构
记忆更新机制
每隔 N 次会话(默认 5 次),系统自动将最近会话提炼成结构化的 User Memory 条目。
LLM 自动识别对话中的"持久价值信息":用户明确的偏好、重复出现的需求、关键背景知识。
新记忆与旧记忆冲突时,根据时间戳优先保留最新信息,并记录变更历史。
用户控制功能
通过 /memory list 命令查看当前存储的所有记忆条目,支持按类别筛选。
通过 /memory edit <id> 手动修改或补充记忆条目,实现精准控制。
通过 /memory delete <id> 删除特定条目,/memory clear 清空全部。
在隐私场景下,通过配置 memory.enabled: false 完全关闭持久化记忆。
IM 频道集成
Telegram · Slack · Feishu — Meet Users Where They Are
DeerFlow 可以直接接入主流 IM 平台,让用户在熟悉的聊天界面中使用 AI Agent 能力,无需额外学习新的工具。
支持的频道
| 平台 | 状态 | 支持特性 | 最佳场景 |
|---|---|---|---|
| 🤖 Telegram | 稳定 | 私聊/群聊、文件发送、按钮交互、Markdown 渲染 | 个人使用、小团队 |
| 💼 Slack | 稳定 | 频道消息、DM、Thread、富文本、文件分享 | 企业团队协作 |
| 🪶 Feishu (飞书) | Beta | 机器人消息、多维表格、文档同步、中文优化 | 字节系企业用户 |
| 💬 Discord | 计划中 | - | 开发者社区 |
常用 IM 命令
# 任务命令
/research <topic> - 启动深度研究任务
/code <description> - 生成并执行代码
/analyze <file> - 分析上传的文件
# 记忆管理
/memory list - 查看我的记忆
/memory clear - 清空记忆
/memory edit <id> - 编辑记忆条目
# 任务控制
/status - 查看当前任务状态
/cancel - 取消正在执行的任务
/history - 查看历史任务
# 配置
/config - 查看/修改个人配置
/model <name> - 切换使用的 LLM 模型
/help - 显示帮助信息
Telegram Bot 配置
# config.yaml — Telegram 集成配置
telegram:
enabled: true
# 允许使用的用户(user_id 列表,留空则允许所有)
allowed_users:
- 123456789
- 987654321
# 允许使用的群组(group_id 列表)
allowed_groups:
- -100123456789
# 消息格式(markdown / html)
parse_mode: "markdown"
# 流式输出(实时更新消息)
streaming: true
# 文件大小限制(MB)
max_file_size: 50
# 每用户并发任务限制
max_concurrent_tasks_per_user: 2
Per-User 个性化配置
每个用户可以通过 /config 命令自定义自己的 Agent 行为:
{
"user_id": "123456789",
"preferences": {
"language": "zh-CN",
"model": "deepseek-chat",
"response_style": "concise",
"enable_memory": true,
"max_research_depth": 3,
"code_sandbox": "docker",
"timezone": "Asia/Shanghai",
"notification": {
"task_complete": true,
"task_failed": true,
"progress_updates": false
}
}
}
Python SDK
Programmatic Access — Integrate DeerFlow Into Your Codebase
DeerFlow 提供完整的 Python SDK,支持同步/异步接口和 SSE 流式输出,可以轻松集成到任何 Python 项目中。
安装
pip install deerflow-sdk
# 或使用 uv
uv add deerflow-sdk
基础用法
import asyncio
from deerflow import DeerFlowClient
async def main():
# 初始化客户端
client = DeerFlowClient(
base_url="http://localhost:8000",
api_key="your-api-key", # 可选
timeout=300, # 全局超时(秒)
)
# 同步调用(等待完整结果)
result = await client.run(
task="分析 Python 中 asyncio 的工作原理,并给出最佳实践",
user_id="user_001", # 用于记忆隔离
model="deepseek-chat", # 覆盖默认模型
)
print(result.content)
# 流式调用(实时接收输出)
async for event in client.stream(
task="对 DeerFlow 项目进行深度技术分析",
user_id="user_001",
):
if event.type == "text_delta":
print(event.data, end="", flush=True)
elif event.type == "tool_call":
print(f"\n[🔧 调用工具: {event.data['tool_name']}]")
elif event.type == "done":
print(f"\n\n✅ 任务完成,耗时: {event.data['duration']}s")
await client.close()
asyncio.run(main())
配置与管理
from deerflow import DeerFlowClient
from deerflow.models import UserConfig, TaskConfig
client = DeerFlowClient(base_url="http://localhost:8000")
# 更新用户配置
await client.users.update_config(
user_id="user_001",
config=UserConfig(
model="claude-sonnet-4-5",
language="zh-CN",
enable_memory=True,
response_style="detailed",
)
)
# 查看用户记忆
memories = await client.memory.list(user_id="user_001")
for mem in memories:
print(f"[{mem.created_at}] {mem.content}")
# 删除特定记忆
await client.memory.delete(user_id="user_001", memory_id="mem_123")
# 获取任务状态
task = await client.tasks.get(task_id="task_abc123")
print(f"状态: {task.status}, 进度: {task.progress}%")
# 取消任务
await client.tasks.cancel(task_id="task_abc123")
文件操作
from pathlib import Path
# 上传文件作为任务输入
with open("data.csv", "rb") as f:
result = await client.run(
task="分析这份 CSV 数据,找出异常值并生成可视化图表",
files=[("data.csv", f, "text/csv")],
user_id="user_001",
)
# 下载任务生成的输出文件
task_id = result.task_id
files = await client.tasks.list_files(task_id=task_id)
for file_info in files:
content = await client.tasks.download_file(
task_id=task_id,
file_path=file_info.path
)
Path(file_info.name).write_bytes(content)
print(f"✅ 已下载: {file_info.name} ({file_info.size} bytes)")
SSE 事件类型
| 事件类型 | 触发时机 | data 内容 |
|---|---|---|
task_started | 任务开始 | {"task_id": "...", "timestamp": "..."} |
planning | Lead Agent 制定计划 | {"plan": [...], "agent_count": 3} |
agent_started | Sub-Agent 启动 | {"agent_id": "...", "role": "research"} |
tool_call | 工具调用开始 | {"tool_name": "web_search", "args": {...}} |
tool_result | 工具调用完成 | {"tool_name": "...", "result": {...}} |
text_delta | 文本流式输出 | {"content": "...", "agent_id": "..."} |
agent_done | Sub-Agent 完成 | {"agent_id": "...", "duration": 12.3} |
done | 任务全部完成 | {"content": "...", "duration": 45.2, "tokens": 3200} |
error | 发生错误 | {"code": "...", "message": "...", "retryable": true} |
Claude Code 集成
DeerFlow SDK 支持与 Claude Code(Anthropic CLI)无缝集成,实现 AI 驱动的代码库分析和重构:
from deerflow import DeerFlowClient
from deerflow.integrations.claude_code import ClaudeCodeBridge
# 初始化 Claude Code 桥接
bridge = ClaudeCodeBridge(
deerflow_client=DeerFlowClient(base_url="http://localhost:8000"),
workspace_path="/path/to/your/project",
)
# 将整个代码库作为上下文进行深度分析
async for event in bridge.analyze_codebase(
task="找出所有潜在的安全漏洞,并提供修复建议",
include_patterns=["*.py", "*.js"],
exclude_patterns=["node_modules/**", "*.pyc"],
):
print(event.content, end="")
# 自动重构
result = await bridge.refactor(
description="将所有同步数据库调用改为异步版本",
files=["app/db.py", "app/models.py"],
dry_run=True, # 先预览,不实际写入
)
与其他框架对比
DeerFlow vs AutoGPT vs Manus vs CrewAI vs OpenDevin
全面对比矩阵
| 维度 | DeerFlow | AutoGPT | Manus | CrewAI | OpenDevin |
|---|---|---|---|---|---|
| 开源 | ✅ MIT | ✅ MIT | ❌ 闭源 | ✅ MIT | ✅ MIT |
| Sub-Agents | 动态生成 | 单 Agent | 固定角色 | 预定义角色 | 单 Agent |
| 代码沙箱 | Docker 原生 | 有限支持 | 完整 | 无 | Docker 原生 |
| 持久化记忆 | 多层分级 | 基础 | 完整 | 有限 | 无 |
| IM 集成 | TG/Slack/飞书 | 无 | 部分 | 无 | 无 |
| 国内模型 | Doubao/DS/Kimi | 需适配 | 部分 | 需适配 | 需适配 |
| Python SDK | 完整 SSE | 基础 | 无 | 完整 | 部分 |
| 深度研究 | 核心能力 | 支持 | 核心能力 | 支持 | 弱 |
| Stars (2026) | 40K+ | 170K+ | N/A(闭源) | 30K+ | 45K+ |
DeerFlow vs Manus:深度对比
实战用例
Real-World Applications — DeerFlow in Action
以下四个用例展示了 DeerFlow 在真实业务场景中的落地方式,每个用例都包含完整的配置和调用示例。
总结
When to Choose DeerFlow
经过 13 章的深入学习,我们可以清晰地描绘 DeerFlow 的价值主张:
DeerFlow 是专为深度研究 + 代码执行 + IM 集成三者组合优化的开源 SuperAgent Harness。它提供了媲美商业产品(Manus)的能力,同时保持了完全开源、完全可自托管的优势。
对于需要在自有基础设施上构建 AI Agent 工作流的团队,DeerFlow 是目前最成熟、最完整的选择之一。
✅ 适合使用 DeerFlow 的场景
需要数据不离本地、与内部 IM 系统集成、使用特定 LLM 提供商。
需要深度文献调研、数据分析自动化、报告生成的科研团队。
需要代码审查、重构、文档生成、自动化测试等工程效率提升。
基于 DeerFlow 快速构建垂直领域 AI 产品,利用其成熟的基础设施。
⚠️ 建议仔细评估的场景
- 极简单的单轮对话:DeerFlow 的架构复杂度对于简单 QA 场景过重,直接调用 LLM API 更合适。
- 完全无技术背景的用户:自托管需要一定的运维能力,如果完全没有技术资源,可先评估 SaaS 版本。
- 实时性极高的场景:DeerFlow 的规划-执行模式有数秒的启动延迟,不适合需要毫秒级响应的场景。
一句话总结:如果你需要一个开源、可自托管、支持深度研究与代码执行、能接入 IM 的企业级 AI Agent 框架——DeerFlow 是首选。