返回模板页

AI 应用架构图示例

以下示例展示了不同团队如何用相同的核心构建块(编排器、LLM、向量存储、工具)组装出不同类型的 AI 系统,帮助你理解各组件的组合方式并套用到自己的项目中。

AI 应用架构图示例

真实案例

企业内部文档问答系统(RAG)

使用场景: 构建内部知识库聊天机器人的 ML 工程师

摄入:SharePoint/Confluence → 分块(512 tokens)→ Embedding → Weaviate
查询路径:用户问题 → Embedding → 向量检索(Top-20)→ 重排序(Top-5)→ GPT-4
编排器:LangChain,对话历史存入 PostgreSQL
护栏:输入端 PII 检测,输出端引用来源校验
缓存:精确匹配 Redis + 语义相似度缓存
可观测性:Langfuse 追踪 LLM 调用,按部门统计成本

这样组织的原因: 企业级 RAG 需要完整的技术栈:护栏阻止敏感数据到达 LLM,重排序在大规模语料库中提升精度,按部门的成本追踪帮助证明基础设施投入的合理性。

带工具调用的代码助手

使用场景: 构建代码审查和生成助手的开发者工具初创公司

编排器:LlamaIndex ReAct Agent,支持多步推理
LLM:Claude 3.5 Sonnet 用于代码生成,小模型用于意图分类
工具:GitHub API、代码执行沙箱、Web 搜索
记忆:短期(当前 PR 上下文)+ 长期(用户偏好和历史评审)
向量数据库:代码库上下文检索的代码 Embedding
不使用重排序器——通过 AST 感知分块处理代码上下文检索

这样组织的原因: 代码助手适合用 ReAct Agent 循环,因为一次代码生成任务往往需要多次工具调用——获取文件、理解 Diff、查找相关测试——LLM 才能给出有用的响应。

在校生的学习助手

使用场景: 构建课程学习伴侣的 EdTech 创业团队或计算机专业学生

简单 RAG:课程大纲 + 讲义 → Embedding → ChromaDB
编排器:LangChain ConversationChain(无需 Agent 工具)
LLM:GPT-3.5-turbo(预算友好)
记忆:保留最近 10 条对话的滑动窗口
无重排序器、无护栏(单用户、可信语料库)
日志:简单文本文件,无需付费可观测平台

这样组织的原因: 学生项目不需要完整的企业级技术栈——展示精简版本有助于明确哪些组件是必须的(LLM、向量存储、编排器),哪些是可以后期添加的生产级关注点。

使用技巧

  • 先画用户请求路径(从左到右或从上到下),再在边缘添加横切关注点。
  • 将 RAG 管道和工具调用层分开绘制——即使都由编排器协调,它们的目的不同。
  • 将数据摄入管道画成单独的离线流程,与实时查询路径区分开来。
  • 将语义缓存画在用户和编排器之间,表明命中缓存时会短路 LLM 调用。

在线开始编辑

回到模板页,直接替换成你的课程主题、章节和复习重点,就可以继续使用这套结构。

使用这个模板: /editor/new?template=ai-pipeline

编辑此 AI 架构图模板