此n8n工作流模板使用社区节点,仅兼容自托管版n8n。
本工作流演示如何通过多智能体协作协议(MCP)构建并发布一个复杂的n8n AI代理作为可调用工具。它允许外部客户端或其他AI系统通过Context7轻松查询软件库文档,无需管理底层工具编排或复杂对话逻辑。
核心思路:
将客户端(如Python脚本、VS Code扩展或其他AI开发环境)的复杂代理逻辑转移到n8n处理。客户端只需向SSE端点发送自然语言查询(例如”如何在Tailwind CSS中使用Flexbox?”),剩余工作均由n8n代理完成。
关键特性与工作原理:
- 公开MCP端点:
- 主工作流使用
Context7 MCP服务器触发器
节点创建SSE端点,使代理可被任何MCP兼容客户端访问。 - 端点路径采用长随机字符串实现基础”隐蔽安全”。
- 主工作流使用
- 工具工作流接口:
- 通过
工具工作流
节点(本例名为call_context7_ai_agent
)连接MCP服务器触发器,定义外部客户端可见的单一”工具”。
- 通过
- 专用AI子工作流:
call_context7_ai_agent
工具调用包含实际AI逻辑的子工作流。- 子工作流以
Context7工作流起始
节点接收用户查询
。 Context7 AI代理
节点(本例使用Google Gemini)作为核心,配备:- 引导行为的系统提示
- 保留执行上下文的
简单内存
(以{{ $execution.id }}
作为会话键) - 两个专用Context7 MCP工具:
context7-resolve-library-id
:将库名称(如’Next.js’)转换为Context7专用IDcontext7-get-library-docs
:使用解析后的ID获取文档,支持特定主题和令牌限制
- 无缝工具调用: AI代理根据查询自主决定何时及如何使用
resolve-library-id
和get-library-docs
工具,内部处理多步骤流程。
方案优势:
- 简化客户端集成: 客户端只需发送简单查询即可调用强大工具
- 降低客户端令牌消耗: 详细提示、工具描述和对话轮次由n8n服务端管理
- 集中代理管理: 在n8n中更新代理能力/工具/模型而无需修改客户端
- 模块化智能体系统: 适合构建复杂多代理系统,本工作流可充当专业”专家”代理
- 经济高效: 使用低成本模型(如Gemini Flash)编排,结合Context7免费层实现高性价比
应用场景:
- 为编程助手或IDE扩展提供智能文档查询服务
- 创建可被大型AI应用调用的专用”微代理”
- 构建通过类API接口访问的内部知识库查询系统
设置说明:
- 需准备Google Gemini(或所选LLM)和Context7 MCP工具的n8n凭证
Context7 MCP服务器触发器
节点的路径
应保持唯一且安全- 客户端连接触发器节点提供的”生产URL”(SSE端点)
本工作流完美展示了n8n作为构建模块化AI代理的强大后端平台。