|
██████╗ ███████╗███████╗██████╗ ██████╗ ██████╗ ██████╗ ███████╗
██╔══██╗██╔════╝██╔════╝██╔══██╗██╔════╝██╔═══██╗██╔══██╗██╔════╝
██║ ██║█████╗ █████╗ ██████╔╝██║ ██║ ██║██║ ██║█████╗
██║ ██║██╔══╝ ██╔══╝ ██╔═══╝ ██║ ██║ ██║██║ ██║██╔══╝
██████╔╝███████╗███████╗██║ ╚██████╗╚██████╔╝██████╔╝███████╗
╚═════╝ ╚══════╝╚══════╝╚═╝ ╚═════╝ ╚═════╝ ╚═════╝ ╚══════╝
|
|
基于终端的开发环境
🚀 高级终端体验
⚡ 快速命令行工作流 🔧 开发者友好界面 📊 实时进度跟踪 专业终端界面,适合高级用户和CI/CD集成 |
可视化交互体验
🎨 现代化Web仪表板
🖱️ 直观的拖拽操作 📱 响应式设计 🎯 可视化进度跟踪 美观的Web界面,为所有技能水平用户提供流畅的工作流程 |
"AI智能体将创意转化为生产就绪代码的地方"
🎉 [2026-02] DeepCode + nanobot 集成 — 通过飞书聊天使用 DeepCode!
./nanobot/run_nanobot.sh → 设置指南 →
|
|
🎉 [2026-02] 全新 Web UI 体验升级!
deepcode 即可启动新版 UI(跨平台支持:Windows/macOS/Linux)
🎉 [2025-10-28] DeepCode在PaperBench上达到最先进水平!
DeepCode在OpenAI的PaperBench Code-Dev所有类别中创造新基准:
|
复杂算法的自动化实现 轻松将研究论文中的复杂算法转换为高质量、生产就绪的代码,加速算法复现。 |
自动化前端Web开发 将纯文本描述转换为功能完整、视觉美观的前端Web代码,快速创建界面。 |
自动化后端开发 从简单的文本输入生成高效、可扩展和功能丰富的后端代码,简化服务器端开发。 |

我们在PaperBench基准测试(由OpenAI发布)上评估DeepCode,这是一个严格的测试平台,要求AI智能体从头独立复现20篇ICML 2024论文。该基准包含8,316个可评分组件,使用带有分层权重的SimpleJudge进行评估。
我们的实验将DeepCode与四个基线类别进行比较:(1) 人类专家,(2) 最先进商业代码智能体,(3) 科学代码智能体,以及 (4) 基于LLM的智能体。
DeepCode: 75.9% vs. 顶级机器学习博士: 72.4% (+3.5%)
DeepCode在3篇论文的人类评估子集上达到75.9%,超越3次人类专家基线(72.4%)+3.5个百分点。这表明我们的框架不仅匹配而且超越了专家级代码复现能力,代表了自主科学软件工程的重要里程碑。
DeepCode: 84.8% vs. 最佳商业智能体: 58.7% (+26.1%)
在5篇论文的子集上,DeepCode大幅超越领先的商业编码工具:
这代表了相对于领先商业代码智能体的**+26.1%改进**。所有商业智能体都使用Claude Sonnet 4.5或GPT-5 Codex-high,突出了DeepCode的卓越架构——而非基础模型能力——推动了这一性能差距。
DeepCode: 73.5% vs. PaperCoder: 51.1% (+22.4%)
与最先进的科学代码复现框架PaperCoder(51.1%)相比,DeepCode达到73.5%,展示了**+22.4%的相对改进**。这一显著差距验证了我们结合规划、分层任务分解、代码生成和迭代调试的多模块架构优于简单的管道式方法。
DeepCode: 73.5% vs. 最佳LLM智能体: 43.3% (+30.2%)
DeepCode显著超越所有测试的LLM智能体:
相对于表现最佳的LLM智能体的**+30.2%改进**表明,复杂的智能体框架,而非延长的推理时间或更大的模型,对于复杂的代码复现任务至关重要。
面临的挑战:
📄 实现复杂性: 将学术论文和复杂算法转换为可运行代码需要大量技术投入和领域专业知识
🔬 研究瓶颈: 研究人员将宝贵时间花在算法实现上,而不是专注于核心研究和发现工作
⏱️ 开发延迟: 产品团队在概念和可测试原型之间经历长时间等待,减慢创新周期
🔄 重复编码: 开发者重复实现相似的模式和功能,而不是基于现有解决方案构建
DeepCode 通过为常见开发任务提供可靠的自动化来解决这些工作流程低效问题,简化从概念到代码的开发工作流程。
DeepCode 是一个AI驱动的开发平台,自动化代码生成和实现任务。我们的多智能体系统处理将需求转换为功能性、结构良好代码的复杂性,让您专注于创新而非实现细节。
🎯 技术能力:
🧬 研究到生产流水线
多模态文档分析引擎,从学术论文中提取算法逻辑和数学模型。生成优化的实现,使用适当的数据结构,同时保持计算复杂度特征。
🪄 自然语言代码合成
使用在精选代码库上训练的微调语言模型进行上下文感知代码生成。在支持多种编程语言和框架的同时保持模块间架构一致性。
⚡ 自动化原型引擎
智能脚手架系统,生成包括数据库模式、API端点和前端组件的完整应用程序结构。使用依赖分析确保从初始生成开始的可扩展架构。
💎 质量保证自动化
集成静态分析与自动化单元测试生成和文档合成。采用AST分析进行代码正确性检查和基于属性的测试进行全面覆盖。
🔮 CodeRAG集成系统
高级检索增强生成,结合语义向量嵌入和基于图的依赖分析。从大规模代码语料库中自动发现最优库和实现模式。
🧠 智能编排智能体: 协调工作流阶段和分析需求的中央决策系统。采用动态规划算法,根据不断发展的项目复杂性实时调整执行策略。为每个实现步骤动态选择最优处理策略。
💾 高效内存机制: 高效管理大规模代码上下文的高级上下文工程系统。实现分层内存结构,具有智能压缩功能,用于处理复杂代码库。该组件实现实现模式的即时检索,并在扩展开发会话中保持语义一致性。
🔍 高级CodeRAG系统: 分析跨存储库复杂相互依赖关系的全局代码理解引擎。执行跨代码库关系映射,从整体角度理解架构模式。该模块利用依赖图和语义分析在实现过程中提供全局感知的代码建议。
🎯 中央编排智能体: 编排整个工作流程执行并做出战略决策。基于输入复杂性分析协调专门智能体。实现动态任务规划和资源分配算法。
📝 意图理解智能体: 对用户需求进行深度语义分析以解码复杂意图。通过高级NLP处理提取功能规范和技术约束。通过结构化任务分解将模糊的人类描述转换为精确、可操作的开发规范。
📄 文档解析智能体: 使用高级解析能力处理复杂的技术文档和研究论文。使用文档理解模型提取算法和方法。通过智能内容分析将学术概念转换为实用的实现规范。
🏗️ 代码规划智能体: 执行架构设计和技术栈优化。动态规划适应性开发路线图。通过自动化设计模式选择执行编码标准并生成模块化结构。
🔍 代码参考挖掘智能体: 通过智能搜索算法发现相关存储库和框架。分析代码库的兼容性和集成潜力。基于相似性度量和自动化依赖分析提供建议。
📚 代码索引智能体: 构建发现代码库的综合知识图谱。维护代码组件之间的语义关系。实现智能检索和交叉引用能力。
🧬 代码生成智能体: 将收集的信息合成为可执行的代码实现。创建功能接口并集成发现的组件。生成全面的测试套件和文档以确保可重现性。
🔧 基于MCP (模型上下文协议) 驱动
DeepCode利用模型上下文协议 (MCP) 标准与各种工具和服务无缝集成。这种标准化方法确保AI智能体和外部系统之间的可靠通信,实现强大的自动化能力。
| 🛠️ MCP服务器 | 🔧 主要功能 | 💡 目的和能力 |
|---|---|---|
| 🔍 brave | Web搜索引擎 | 通过Brave搜索API进行实时信息检索 |
| 🌐 bocha-mcp | 替代搜索 | 具有独立API访问的辅助搜索选项 |
| 📂 filesystem | 文件系统操作 | 本地文件和目录管理,读/写操作 |
| 🌐 fetch | Web内容检索 | 从URL和Web资源获取和提取内容 |
| 📥 github-downloader | 存储库管理 | 克隆和下载GitHub存储库进行分析 |
| 📋 file-downloader | 文档处理 | 下载文件(PDF、DOCX等)并转换为Markdown |
| ⚡ command-executor | 系统命令 | 执行bash/shell命令进行环境管理 |
| 🧬 code-implementation | 代码生成中心 | 具有执行和测试的综合代码复现 |
| 📚 code-reference-indexer | 智能代码搜索 | 代码存储库的智能索引和搜索 |
| 📄 document-segmentation | 智能文档分析 | 大型论文和技术文档的智能文档分割 |
| 🛠️ 功能 | 🎯 使用上下文 |
|---|---|
| 📄 read_code_mem | 从内存高效检索代码上下文 |
| ✍️ write_file | 直接文件内容生成和修改 |
| 🐍 execute_python | Python代码测试和验证 |
| 📁 get_file_structure | 项目结构分析和组织 |
| ⚙️ set_workspace | 动态工作空间和环境配置 |
| 📊 get_operation_history | 过程监控和操作跟踪 |
🎛️ 多界面框架
具有CLI和Web前端的RESTful API,具有实时代码流、交互式调试和可扩展插件架构,用于CI/CD集成。
🚀 多智能体智能流水线:
|
💡 输入层 📄 研究论文 • 💬 自然语言 • 🌐 URL • 📋 需求 | ||
|
🎯 中央编排 战略决策制定 • 工作流程协调 • 智能体管理 | ||
|
📝 文本分析 需求处理 |
📄 文档分析 论文和规范处理 | |
|
📋 复现规划 深度论文分析 • 代码需求解析 • 复现策略开发 | ||
|
🔍 参考分析 存储库发现 |
📚 代码索引 知识图谱构建 | |
|
🧬 代码实现 实现生成 • 测试 • 文档 | ||
|
⚡ 输出交付 📦 完整代码库 • 🧪 测试套件 • 📚 文档 • 🚀 部署就绪 | ||
在安装 DeepCode 之前,请确保您已安装以下软件:
| 要求 | 版本 | 用途 |
|---|---|---|
| Python | 3.9+ | 核心运行环境 |
| Node.js | 18+ | 新版 UI 前端 |
| npm | 8+ | 包管理工具 |
# 检查您的版本
python --version # 应为 3.9+
node --version # 应为 18+
npm --version # 应为 8+
# macOS (使用 Homebrew)
brew install node
# Ubuntu/Debian
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt-get install -y nodejs
# Windows
# 从 https://nodejs.org/ 下载安装
选择以下任一安装方式:
# 🚀 直接安装 DeepCode 包
pip install deepcode-hku
# 🔑 下载配置文件
curl -O https://raw.githubusercontent.com/HKUDS/DeepCode/main/mcp_agent.config.yaml
curl -O https://raw.githubusercontent.com/HKUDS/DeepCode/main/mcp_agent.secrets.yaml
git clone https://github.com/HKUDS/DeepCode.git
cd DeepCode/
curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv --python=3.13
source .venv/bin/activate # Windows下: .venv\Scripts\activate
uv pip install -r requirements.txt
# 安装前端依赖
npm install --prefix new_ui/frontend
git clone https://github.com/HKUDS/DeepCode.git
cd DeepCode/
pip install -r requirements.txt
# 安装前端依赖
npm install --prefix new_ui/frontend
以下配置适用于所有安装方式(pip、UV、源码安装和 Docker 均通用)。
编辑 mcp_agent.secrets.yaml,填入你的 API 密钥:
# 至少需要配置一个 LLM 提供商的 API Key
openai:
api_key: "your_openai_api_key"
base_url: "https://openrouter.ai/api/v1" # 可选: 用于 OpenRouter 或自定义端点
anthropic:
api_key: "your_anthropic_api_key" # 用于 Claude 模型
google:
api_key: "your_google_api_key" # 用于 Gemini 模型
编辑 mcp_agent.config.yaml 选择你偏好的 LLM 提供商(第 ~106 行):
# 选项: "google", "anthropic", "openai"
# 如果未设置或不可用,将自动回退到第一个可用的提供商
llm_provider: "google"
在 mcp_agent.config.yaml 中配置 Web 搜索:
# Brave 搜索 (默认) — 在 brave.env 部分设置 (第 ~28 行)
brave:
env:
BRAVE_API_KEY: "your_brave_api_key_here"
# Bocha-MCP (替代) — 在 bocha-mcp.env 部分设置 (第 ~74 行)
bocha-mcp:
env:
BOCHA_API_KEY: "your_bocha_api_key_here"
在 mcp_agent.config.yaml 中控制文档处理:
document_segmentation:
enabled: true # true/false — 是否使用智能文档分割
size_threshold_chars: 50000 # 触发分割的文档大小阈值
如果您使用 Windows,可能需要在 mcp_agent.config.yaml 中手动配置 MCP 服务器:
# 1. 全局安装 MCP 服务器
npm i -g @modelcontextprotocol/server-brave-search
npm i -g @modelcontextprotocol/server-filesystem
# 2. 找到您的全局 node_modules 路径
npm -g root
然后更新您的 mcp_agent.config.yaml 使用绝对路径:
mcp:
servers:
brave:
command: "node"
args: ["C:/Program Files/nodejs/node_modules/@modelcontextprotocol/server-brave-search/dist/index.js"]
filesystem:
command: "node"
args: ["C:/Program Files/nodejs/node_modules/@modelcontextprotocol/server-filesystem/dist/index.js", "."]
注意: 将路径替换为步骤 2 中您实际的全局 node_modules 路径。
DeepCode 支持多个搜索服务器进行 Web 搜索功能。您可以在 mcp_agent.config.yaml 中配置首选选项:
# 默认搜索服务器配置
# 选项: "brave" 或 "bocha-mcp"
default_search_server: "brave"
可用选项:
"brave"): 具有高质量搜索结果的默认选项。需要 BRAVE_API_KEY。推荐给大多数用户。"bocha-mcp"): 替代搜索服务器。需要 BOCHA_API_KEY。使用本地 Python 服务器实现。完整 MCP 服务器配置(mcp_agent.config.yaml):
# Brave 搜索 (默认) - 第 28 行左右
brave:
command: "npx"
args: ["-y", "@modelcontextprotocol/server-brave-search"]
env:
BRAVE_API_KEY: "your_brave_api_key_here"
# Bocha-MCP (替代) - 第 74 行左右
bocha-mcp:
command: "python"
args: ["tools/bocha_search_server.py"]
env:
PYTHONPATH: "."
BOCHA_API_KEY: "your_bocha_api_key_here"
💡 提示: 两个搜索服务器都需要 API 密钥配置。选择最适合您的 API 访问和需求的选项。
选择您偏好的启动方式:
| 🐳 Docker (推荐) | 🚀 本地 (deepcode 命令) | 🛠️ 其他方式 |
|---|---|---|
|
无需 Python/Node — 一切在容器内。
|
首次运行自动安装依赖。
特性:用户交互循环、实时进度、内联对话。 |
|
./deepcode_docker/run_docker.sh stop # 停止
./deepcode_docker/run_docker.sh restart # 重启(配置更改无需重建)
./deepcode_docker/run_docker.sh --build # 强制重建
./deepcode_docker/run_docker.sh logs # 实时日志
./deepcode_docker/run_docker.sh status # 健康检查
./deepcode_docker/run_docker.sh clean # 删除容器和镜像
或直接使用 Docker Compose:
docker compose -f deepcode_docker/docker-compose.yml up --build # 构建并启动
docker compose -f deepcode_docker/docker-compose.yml down # 停止
docker compose -f deepcode_docker/docker-compose.yml logs -f # 查看日志
💡 配置文件以卷方式挂载 — 编辑后重启即可,无需重建。 💡 Windows 用户:如果脚本不可用,可直接运行
docker compose命令。
| 问题 | 原因 | 解决方案 |
|---|---|---|
Docker 构建失败 tsc: not found | 构建缓存损坏 | docker builder prune -f 然后用 --no-cache 重建 |
error during connect / cannot find the file | Docker Desktop 未运行 | 启动 Docker Desktop,等待就绪后重试 |
| 前端空白页面 | node_modules 损坏 | cd new_ui/frontend && rm -rf node_modules && npm install |
ERR_CONNECTION_REFUSED | 端口错误/后端未运行 | Docker: http://localhost:8000。本地: http://localhost:5173 |
npm install → Could not read package.json | 目录错误 | 使用 npm install --prefix new_ui/frontend |
| Windows: MCP 服务器无法工作 | 需要绝对路径 | 参见上方 Windows MCP 配置 |
直接在飞书中使用 DeepCode — 发送消息,获取代码!
nanobot 是一个超轻量级 AI 助手,现已与 DeepCode 深度集成。通过飞书聊天,您可以:
paper2code)— 粘贴 arXiv 链接即可chat2code)— 用自然语言描述需求deepcode_status)— 获取进度和结果🎯 当前支持: 飞书(Feishu / Lark) 🔮 架构预留: Telegram 和 Discord 节点为未来扩展保留
App IDApp Secrethttp://your-server-ip:8081/feishu/event(公网可访问)Encrypt Key 和 Verification Tokenim:message(接收消息)im:message:send_as_bot(发送消息)im:chat(获取群信息)💡 开发环境: 可使用 ngrok 或 localhost.run 将本地 8081 端口映射到公网。
编辑项目根目录的 nanobot_config.json:
{
"channels": [
{
"type": "feishu",
"app_id": "cli_xxxxxxxxxxxxx",
"app_secret": "your_app_secret",
"encrypt_key": "your_encrypt_key",
"verification_token": "your_verification_token"
}
],
"llm": {
"provider": "openai", // 或 "anthropic" / "minimax"
"model": "openai/gpt-4o", // 推荐英文模型
"api_key": "your_api_key",
"base_url": "https://openrouter.ai/api/v1" // 可选
},
"deepcode": {
"api_url": "http://localhost:8000" // DeepCode 后端地址
}
}
💡 提示: 使用
nanobot_config.json.example作为模板。
确保 DeepCode 后端已运行,然后启动 nanobot:
cd DeepCode/
./nanobot/run_nanobot.sh
Docker Compose 模式 (同时启动 DeepCode + nanobot):
docker compose -f deepcode_docker/docker-compose.yml up -d
访问飞书,找到你的机器人,发送消息测试:
hi
如果收到回复,说明配置成功!🎉
| 操作 | 命令示例 |
|---|---|
| 论文转代码 | paper2code https://arxiv.org/abs/2104.09864 |
| 对话转代码 | chat2code 实现一个计算斐波那契数列的 Python 函数 |
| 查询任务状态 | deepcode_status task_abc123 |
| 响应交互 | 当 AI 询问"需要测试用例吗?"时直接回复 是 或 否 |
# 查看日志(Docker 模式)
docker compose -f deepcode_docker/docker-compose.yml logs -f nanobot
# 重启 nanobot(Docker 模式)
docker compose -f deepcode_docker/docker-compose.yml restart nanobot
# 停止所有服务(Docker 模式)
docker compose -f deepcode_docker/docker-compose.yml down
| 问题 | 解决方案 |
|---|---|
| nanobot 响应为中文 | 修改 nanobot_config.json 中 llm.model 为英文模型(如 gpt-4o) |
| 飞书收不到消息 | 检查事件订阅 URL 是否可公网访问,端口 8081 是否开放 |
| DeepCode 任务提交失败 | 确认 deepcode.api_url 正确,后端正在运行 |
| nanobot 容器无法启动 | 检查 nanobot_config.json 格式是否正确(使用 JSON 验证器) |
|
研究到实现 |
AI驱动的图像工具 |
完整Web应用程序 |
我们正在不断增强DeepCode的令人兴奋的新功能: