构建你自己的N8N工作流MCP服务器

这个n8n模板展示了如何将现有工作流改造成MCP服务器。连接至此的MCP客户端能通过强大的端到端工作流(而非简单工具)实现更高效的任务处理。

我长期建议为结果而非功能设计智能体工具,这在构建MCP服务器时尤为适用——核心原则是让智能体用最少调用次数完成任务。

这正是n8n适合MCP服务器的原因!该模板通过让AI间接发现、管理和运行工作流,将智能体/MCP客户端(如Claude Desktop)与现有工作流连接。

运作原理

  • 使用MCP触发器并附加4个自定义工具(用于发现/管理工作流)和1个执行工具
  • 引入”可用工作流”概念限制智能体访问,避免工作流冲突或非生产环境问题
  • n8n核心节点通过API获取工作流,示例中使用”mcp”标签过滤目标工作流
  • Redis作为内存数据库跟踪”可用工作流”,智能体可通过工具自主管理清单
  • 通过子工作流触发器执行任务,输入模式解析方案是从工作流JSON模板提取参数并加入描述
  • 智能体需通过”列表”和”搜索”发现工作流,需人工引导其优先使用这些工作流

使用指南

  • 先确定对MCP服务器可见的工作流(示例使用”mcp”标签过滤)
  • 确保工作流设有子工作流触发器及输入模式
  • 将MCP服务器设为”活跃”状态启用生产模式
  • 在MCP客户端配置生产URL(Claude Desktop配置见文档链接)
  • 需适应新的交互方式,建议聚焦明确目标(如”研究并报告”)而非零散工具集合

环境要求

  • n8n API密钥(用于工作流过滤)
  • 带子工作流触发器的工作流
  • Redis数据库(管理可用工作流)
  • MCP客户端如Claude Desktop

自定义建议

  • 若无子工作流触发器,可修改executeTool工具改用HTTP请求触发
  • 若工作流相似度不高,可移除”可用工作流”概念让智能体自由访问所有工作流
(0)
上一篇 6天前
下一篇 6天前

更多相关内容

从零掌握 AI + MCP/Responses API 的自动化设计,节省90%的时间和成本,成为AI自动化专家。学会 n8n、Coze、Dify 接入全球领先 AI应用生态,打造属于你的 AI智能工作流。