基于Context7和Gemini的文档查询AI代理

此n8n工作流模板使用社区节点,仅兼容自托管版n8n。

本工作流演示如何通过多智能体协作协议(MCP)构建并发布一个复杂的n8n AI代理作为可调用工具。它允许外部客户端或其他AI系统通过Context7轻松查询软件库文档,无需管理底层工具编排或复杂对话逻辑。

核心思路:

将客户端(如Python脚本、VS Code扩展或其他AI开发环境)的复杂代理逻辑转移到n8n处理。客户端只需向SSE端点发送自然语言查询(例如”如何在Tailwind CSS中使用Flexbox?”),剩余工作均由n8n代理完成。

关键特性与工作原理:

  1. 公开MCP端点:
    • 主工作流使用Context7 MCP服务器触发器节点创建SSE端点,使代理可被任何MCP兼容客户端访问。
    • 端点路径采用长随机字符串实现基础”隐蔽安全”。
  2. 工具工作流接口:
    • 通过工具工作流节点(本例名为call_context7_ai_agent)连接MCP服务器触发器,定义外部客户端可见的单一”工具”。
  3. 专用AI子工作流:
    • call_context7_ai_agent工具调用包含实际AI逻辑的子工作流。
    • 子工作流以Context7工作流起始节点接收用户查询
    • Context7 AI代理节点(本例使用Google Gemini)作为核心,配备:
      • 引导行为的系统提示
      • 保留执行上下文的简单内存(以{{ $execution.id }}作为会话键)
      • 两个专用Context7 MCP工具:
        • context7-resolve-library-id:将库名称(如’Next.js’)转换为Context7专用ID
        • context7-get-library-docs:使用解析后的ID获取文档,支持特定主题和令牌限制
  4. 无缝工具调用: AI代理根据查询自主决定何时及如何使用resolve-library-idget-library-docs工具,内部处理多步骤流程。

方案优势:

  • 简化客户端集成: 客户端只需发送简单查询即可调用强大工具
  • 降低客户端令牌消耗: 详细提示、工具描述和对话轮次由n8n服务端管理
  • 集中代理管理: 在n8n中更新代理能力/工具/模型而无需修改客户端
  • 模块化智能体系统: 适合构建复杂多代理系统,本工作流可充当专业”专家”代理
  • 经济高效: 使用低成本模型(如Gemini Flash)编排,结合Context7免费层实现高性价比

应用场景:

  • 为编程助手或IDE扩展提供智能文档查询服务
  • 创建可被大型AI应用调用的专用”微代理”
  • 构建通过类API接口访问的内部知识库查询系统

设置说明:

  • 需准备Google Gemini(或所选LLM)和Context7 MCP工具的n8n凭证
  • Context7 MCP服务器触发器节点的路径应保持唯一且安全
  • 客户端连接触发器节点提供的”生产URL”(SSE端点)

本工作流完美展示了n8n作为构建模块化AI代理的强大后端平台。

另附讲解视频:https://www.youtube.com/watch?v=dudvmyp7Pyg

(0)
上一篇 3天前
下一篇 3天前

更多相关内容

从零掌握 AI + MCP/Responses API 的自动化设计,节省90%的时间和成本,成为AI自动化专家。学会 n8n、Coze、Dify 接入全球领先 AI应用生态,打造属于你的 AI智能工作流。