logo
0
0
WeChat Login
chenli.idevlab<chenli.idevlab@bytedance.com>
doc: new docs

飞书/Lark 开放平台开发文档检索 MCP

npm version npm downloads Node.js Version

中文 | English

⚠️ Beta版本提示:当前工具处于Beta版本阶段,功能和API可能会有变更,请密切关注版本更新。

这是飞书/Lark官方 开放平台开发文档检索 MCP(Model Context Protocol)工具,旨在帮助用户输入自身诉求后迅速检索到自己需要的开发文档,帮助开发者在AI IDE中编写与飞书集成的代码。也可搭配 飞书/Lark OpenAPI MCP 来让 AI 助手运行自动化场景

说明: 开放平台开发文档检索,检索范围是 开发文档 下所有的开发指南、开发教程、服务端 API、客户端 API,帮助用户迅速检索到对应的 OpenApi 或者其他开发文档,非「飞书云文档」的检索。

使用准备

安装Node.js

在使用lark-mcp工具之前,您需要先安装Node.js环境。如已安装过 Node.js,可以跳过本步骤

  1. 使用Homebrew安装(推荐)

    brew install node
  2. 使用官方安装包

    • 访问Node.js官网
    • 下载并安装LTS版本
    • 安装完成后,打开终端验证:
      node -v npm -v

Windows安装Node.js

  1. 使用官方安装包

    • 访问Node.js官网
    • 下载并运行Windows安装程序(.msi文件)
    • 按照安装向导操作,完成安装
    • 安装完成后,打开命令提示符验证:
      node -v npm -v
  2. 使用nvm-windows

    • 下载nvm-windows
    • 安装nvm-windows
    • 使用nvm安装Node.js:
      nvm install latest nvm use <版本号>

安装

全局安装lark-mcp工具:

npm install -g @larksuiteoapi/lark-mcp

使用指南

在Trae/Cursor/Claude中使用

如需在Trae/Cursor或Claude等AI工具中集成飞书/Lark功能,你可以通过下方按钮安装到对应的工具:

Install MCP Server

Install MCP Server Install MCP Server

也可以在配置文件中添加以下内容:

{ "mcpServers": { "lark-mcp": { "command": "npx", "args": [ "-y", "@larksuiteoapi/lark-mcp", "recall-developer-documents", ] } } }

高级配置

命令行参数说明

lark-mcp recall-developer-documents工具提供了多种命令行参数,以便您灵活配置MCP服务:

参数简写描述示例
--mode-m传输模式,可选值为stdio、streamable或sse,默认为stdio-m sse
--hostSSE\Streamable模式下的监听主机,默认为localhost--host 0.0.0.0
--port-pSSE\Streamable模式下的监听端口,默认为3000-p 3000
--version-V显示版本号-V
--help-h显示帮助信息-h

参数使用示例

  1. 传输模式

    recall-developer-documents 支持两种传输模式:

    1. stdio模式(默认/推荐):适用于与Cursor或Claude等AI工具集成,通过标准输入输出流进行通信。
    lark-mcp recall-developer-documents -m stdio
    1. SSE模式:提供基于Server-Sent Events的HTTP接口,适用于Web应用或需要网络接口的场景。
    # 默认只监听localhost lark-mcp recall-developer-documents -m sse -p 3000 # 监听所有网络接口(允许远程访问) lark-mcp recall-developer-documents -m sse --host 0.0.0.0 -p 3000

    启动后,SSE端点将可在 http://<host>:<port>/sse 访问。

相关链接

反馈

欢迎提交Issues来帮助改进这个工具。如有问题或建议,请在GitHub仓库中提出。