<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>RAG on Leanku</title>
    <link>https://blog.leanku.com/tags/rag/</link>
    <description>Recent content in RAG on Leanku</description>
    <image>
      <url>https://blog.leanku.com/papermod-cover.png</url>
      <link>https://blog.leanku.com/papermod-cover.png</link>
    </image>
    <generator>Hugo -- gohugo.io</generator>
    <lastBuildDate>Fri, 24 Oct 2025 00:01:01 +0800</lastBuildDate><atom:link href="https://blog.leanku.com/tags/rag/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>RAG</title>
      <link>https://blog.leanku.com/post/ai/rag/</link>
      <pubDate>Fri, 24 Oct 2025 00:01:01 +0800</pubDate>
      
      <guid>https://blog.leanku.com/post/ai/rag/</guid>
      <description>RAG技术 （检索增强生成） 引言：当大模型遇上知识库 想象一下，你正在参加一场开卷考试。你的面前有两样东西：一个记忆力超群但知识停留在去年的天才同学（这就是大语言模型），以及一个可以随时查阅的最新版百科全书（这就是外部知识库）。你让这位同学回答问题，他既可以凭借自己的记忆作答，也可以随时翻阅百科全书获取最新、最准确的信息。
这个场景，就是 RAG（检索增强生成）最形象的比喻。
它不是要取代大模型，而是为大模型装上了一个可以实时更新的&amp;quot;知识图书馆&amp;quot;。
一、什么是 RAG？ 1.1 官方定义 RAG 全称是 Retrieval-Augmented Generation，中文译为&amp;quot;检索增强生成&amp;quot;。它是一种将信息检索系统与大语言模型的生成能力相结合的技术架构。
核心思想很简单：在让大模型回答问题之前，先从一个知识库中检索出与问题最相关的信息，然后将这些信息作为&amp;quot;参考资料&amp;quot;连同原始问题一起交给模型，让它基于这些资料生成最终答案。
1.2 为什么要用 RAG？ 传统的大语言模型存在三个先天性缺陷：
缺陷 表现 后果 知识截止日期 模型训练完成后，新发生的事件一概不知 问&amp;quot;今天的天气&amp;quot;、&amp;ldquo;最近的新闻&amp;rdquo;，模型只能道歉 幻觉问题 模型会&amp;quot;自信地胡说八道&amp;quot; 在金融、医疗等严肃场景无法直接使用 缺乏专业深度 对企业内部知识、专业领域知识不了解 无法回答基于私域数据的专业问题 RAG 的出现，一次性解决了这三个问题：
知识实时更新：只要更新知识库，模型就能&amp;quot;知道&amp;quot;
答案可追溯：每个回答都能找到对应的参考资料
低成本私有化：无需训练模型，只需构建知识库
1.3 RAG 的三步工作流程 一个标准的 RAG 流程包含三个核心步骤：
用户提问：&amp;#34;去年的销售额是多少？&amp;#34; ↓ [第一步：检索] ↓ 在向量数据库中搜索 → 找到&amp;#34;2023年财报.pdf&amp;#34;中的相关段落 ↓ [第二步：增强] ↓ 构建新的提示词： &amp;#34;基于以下资料回答问题： 【资料】2023年公司财报显示，全年销售额为1.2亿元... 问题：去年的销售额是多少？&amp;#34; ↓ [第三步：生成] ↓ 大模型生成：&amp;#34;根据公司财报，2023年的销售额为1.2亿元。&amp;#34; 二、RAG 的核心技术组件 要深入理解 RAG，需要认识它的三个核心技术组件：
2.1 向量化与嵌入模型 是什么：将文本转化为计算机能够理解的数学向量（一组数字）。
为什么需要：计算机无法像人类一样理解文字的&amp;quot;含义&amp;quot;，但它擅长计算数字之间的&amp;quot;距离&amp;quot;。通过将文字转化为向量，我们可以用数学方式衡量两段文字的相似度。
像 OpenAI 的 text-embedding-3-small 模型，或者本地的 bge-large-zh 模型，都是常用的嵌入模型。</description>
    </item>
    
  </channel>
</rss>
