该工作流展示了n8n中一个简单的检索增强生成(RAG)流程,分为两个主要部分:
🔹 第一部分:将数据加载到向量存储
从磁盘(或Google Drive)读取文件。
使用递归文本分割器将内容分割成可管理的块。
使用Cohere Embedding API生成嵌入向量。
将向量存储到内存向量存储中(为简化流程,可替换为Pinecone、Qdrant等)。
🔹 第二部分:与向量存储聊天
从聊天UI或触发节点获取用户输入。
使用相同的Cohere嵌入模型对查询进行嵌入。
通过相似性搜索从向量存储中检索相似内容块。
使用Groq托管的LLM基于上下文生成最终答案。
🛠️ 使用的技术:
📦 Cohere Embedding API
⚡ Groq LLM(用于快速推理)
🧠 n8n(用于编排和可视化流程)
🧲 内存向量存储(用于原型设计)
🧪 使用方法:
上传或指向源文档。
生成嵌入并填充向量存储。
通过聊天触发节点提问。
基于检索内容获取上下文感知的响应。