Trace Id is missing
跳转至主内容
Azure

什么是检索增强生成 (RAG)?

了解检索增强生成 (RAG) 技术如何提高大型语言模型 (LLM) 生成的回复的准确性和相关性。

RAG 通过集成外部知识,确保生成的回复是最新的且相关的,从而提高 AI 的准确性

通过增强云计算能力并影响 AI 的发展,RAG 有助于提高 AI 生成的回复的准确性和相关性,从而使 AI 系统在各种应用程序中更加可靠和高效。

要点

  • RAG 在 AI 中的历史和发展反映了一个更广泛的趋势,即向更智能、更具上下文感知能力的系统发展,这些系统能够有效地将大量信息与复杂的生成功能相结合。
  • RAG 体系结构通过以检索到的外部知识作为预训练生成的基础,使 AI 系统能够生成更有依据、更可靠的内容。
     
  • RAG 的优势使其成为一种强大的技术,可用于创建更准确、更可靠、更通用的 AI 系统,并在各个领域、行业和任务中得到广泛应用。
     
  • 开发人员使用 RAG 来构建可生成基于准确信息的内容的 AI 系统,从而开发出更可靠、更具上下文感知能力且更以用户为中心的应用程序。

  • RAG 系统将检索与生成相结合,使其成为适用于各种应用程序、行业和用例的强大工具。

  • 随着 RAG 模型的不断进步,它们有望在各种应用程序(从客户服务到研究和内容创作)中发挥至关重要的作用。

  • 通过增强检索和生成过程的集成,RAG 将在未来的 LLM 中发挥关键作用。

RAG:机制、历史和影响

RAG 的工作原理

检索增强生成 (RAG) 是一种 AI 框架,它结合了两种技术;首先,它从数据库、文档或 Web 等外部源检索相关信息。收集到相关信息后,就会将其用于指导和增强生成的回复。这种方法充分利用了检索和生成技术的优势,确保了回复的准确性和相关性,并通过最新的具体信息丰富了上下文。这种双重能力使得 RAG 系统能够生成比纯生成模型更有依据、更细致的输出。

RAG 的历史

RAG 源自早期的基本信息检索系统。随着生成式 AI 技术的快速发展以及 GPT-2 和 BERT 等生成式语言模型的出现,对更准确、更相关的回复的需求也逐渐增加。   2020 年,RAG 体系结构被引入,标志着一项重大进步。通过使用机器学习将检索器和生成器模块相结合(将 LLM 的内部知识库与外部知识源集成),RAG 能够生成更准确、最新、连贯且上下文准确的文本。   RAG 模型以深度学习为核心,可以进行端到端训练,从而实现优化回复的输出,随着模型学会检索最可靠且上下文相关的有用信息,生成内容的质量会逐渐提升。

RAG 对 AI 的重要性

RAG 在提升 AI 能力方面发挥着至关重要的作用,它反映了一种趋势,即系统更智能、更具上下文感知能力,能够有效地将大量信息与复杂的生成功能相结合。以下是 RAG 成为 AI 基础的主要原因:

 
  • 提高了准确性:通过集成外部知识源,RAG 显著提高了 LLM 生成的回复的准确性和相关性。
  • 上下文相关性:RAG 允许 AI 系统通过检索与请求相关的特定信息,生成更加符合上下文的回复。

  • 成本效益:实施 RAG 比持续使用新数据重新训练 LLM 更为高效。 

  • 透明度:RAG 可提供回复中所使用信息的来源,提高了可信度和信任度。
     
  • 多功能性:RAG 可应用于各个行业,如医疗保健、教育和金融行业,也可用于多种用途,如客户服务、研究和内容创作。

  • 改善了体验:通过提供更准确、更相关的回复,RAG 技术可为用户带来更满意、更高效的交互。
 

RAG 体系结构

RAG 系统的体系结构由两个主要模块和一个融合机制组成,它们协同工作,生成准确且上下文相关的输出。RAG 模块可以进行端到端训练,使算法能够联合优化检索和生成,从而生成更有依据、更可靠的结果。

以下是 RAG 体系结构的工作原理:

检索器模块可在大型数据集中进行搜索,以查找与查询最相关的信息片段

检索完成后,生成器模块会将检索到的信息作为额外的上下文,生成一致且相关的回复。通常,生成器模块是预先训练好的语言模型,如生成式预训练转换器 (GPT) 或双向自回归转换器 (BART),这种模型经过微调后可以根据输入和检索到的信息生成文本。

融合机制可确保在生成过程中有效结合检索到的信息。通过模块之间的这种交互,RAG 系统能够以检索到的知识为基础进行生成,从而生成更有依据、更可靠的内容。 

RAG 的优势

用于改进 AI 的强大体系结构

开发人员使用 RAG 体系结构创建的 AI 系统更准确、更可靠且更通用,可广泛应用于各个行业和任务。RAG 的优势包括:
   
  • 提高了准确性、相关性和上下文精准性:通过检索相关文档或数据,RAG 可确保生成的输出以事实和相关信息为基础,从而提高回复的整体准确性和相关性。

  • 通过基于事实的生成减少了虚幻内容:RAG 通过基于实际检索到的内容获得生成式模型的输出,降低了产生虚幻内容(生成似是而非的信息)的可能性,从而生成更可信的结果。

  • 在开放域任务中通过广泛的知识访问增强了性能:RAG 通过高效地从广泛而多样化的源中检索信息,在开放域问题解答和类似任务方面表现卓越,能够处理具有深度和广度的各种主题。

  • 可扩展性和处理大型知识库的能力:RAG 可以从庞大的数据集中高效搜索和检索相关信息,因此具有可扩展性,适用于需要大量知识访问的应用。借助 NoSQL 数据库RAG 模型可以利用大量数据生成上下文丰富的回复。

  • 自定义和特定领域应用:RAG 模型适应性强,可针对特定领域进行微调,使开发人员可以创建针对特定行业或任务(例如法律咨询、医疗诊断或财务分析)的专用 AI 系统。

  • 交互式和自适应学习:通过以用户为中心的自适应,RAG 系统可以从用户交互中学习,随着时间的推移检索更多相关信息,并调整其回复以更好地满足用户需求,从而改善用户体验和参与度。

  • 多功能性和多模式集成:RAG 可以扩展以处理多模式数据(文本、图像、结构化数据),增强生成中所用信息的丰富性和多样性,扩大模型的应用范围。

  • 利用有依据的信息进行写作,提高内容创作效率:RAG 通过检索相关事实和参考来提供强大的工具,确保生成的内容不仅具有创意,而且准确且信息充分。

RAG 系统的类型

在不同应用中的多功能性

检索增强生成是一种适应性强、用途广泛的 AI 体系结构,在各个领域和行业都有广泛的用例。以下是 RAG 的主要应用:
 
  • 开放域问题解答 (ODQA) 
    用例:
    RAG 在 ODQA 系统中非常有效,用户几乎可以就任何主题提出问题。
    示例:客户支持聊天机器人使用 RAG 从大型知识库或常见问题解答中检索信息,从而提供准确的答案。

  • 特定领域的专用查询
    用例:
    对于法律行业而言,RAG 可以通过检索相关文档,协助分析和生成案例法、判例和法规的摘要。
    示例:法律助理工具可为特定目的检索和汇总文档。

  • 内容摘要
    用例:
    通过检索相关信息并将其集成到生成的文本中,RAG 可以帮助生成高质量的内容,如虚拟助理的会议记录,或文章、报告或博客文章的摘要。
    示例:记者使用 RAG 从各种来源获取关键详细信息,生成近期新闻文章的摘要。

  • 个性化推荐
    用例:
    RAG 可以通过检索特定于用户的信息并生成个性化建议来增强推荐系统。
    示例:电子商务平台使用 RAG 根据用户的浏览历史记录和偏好推荐产品,并提供根据相关产品评论或描述生成的说明。

  • 复杂场景分析和内容创作 
    用例:
    混合 RAG 模型可以通过从多个复杂源检索相关数据、文档或新闻,用于生成并合成详细的报告或分析。
    示例:财务分析工具通过检索和汇总最近的市场趋势、历史财务数据、股票表现、专家评论和经济指标来生成投资预测、分析或报告。

  • 研究信息和合成
    用例:
    研究人员可以使用 RAG 检索并合成学术论文、报告或数据库中的信息,从而简化审查过程并促进研究项目的进行。
    示例:学术工具通过从各种研究中提取关键发现来生成相关研究论文的摘要。

  • 多语言和跨语言应用
    用例:
    RAG 可以在多语言环境中部署,以检索不同语言的信息并生成跨语言内容。
    示例:翻译工具在翻译文本的同时也会检索与文化相关的信息,以确保翻译在上下文中是恰当的。

RAG 将推动未来的 AI 发展

提高 AI 输出的精准度

通过增强检索和生成过程的集成,检索增强生成将在未来的 LLM 中发挥关键作用。该领域的预期发展将促成这些组件实现更无缝且更复杂的融合,使 LLM 能够在更广泛的应用和行业中提供高度准确且符合上下文的输出。

随着 RAG 的不断发展,我们可以预测其在新的领域中的应用,例如个性化教育,它可以根据个人需求定制学习体验,再例如高级研究工具,它能够为复杂的调查提供精准而全面的信息检索。

解决当前限制(如提高检索准确度以及减少偏见)将是最大程度地发挥 RAG 系统潜力的关键。RAG 的未来迭代版本可能会采用互动性更强、上下文感知能力更强的系统,通过动态适应用户输入来增强用户体验。

此外,使用计算机视觉集成文本、图像和其他数据类型的多模式 RAG 模型的开发将扩展并开启更多可能性,从而使 LLM 比以往更加全面和强大。
常见问题解答

常见问题解答

  • 检索增强生成 (RAG) 是一种将检索模型与生成模型结合在一起的 AI 技术。它从数据库或文档集中检索相关信息,然后利用这些信息生成更准确且上下文相关的回复。这种方法基于真实世界的数据生成 AI 文本,提高了文本质量,因此特别适用于回答问题、汇总信息和创作内容等任务。
  • 通过合并外部数据,RAG 可改进 AI 生成的内容。它从数据库中检索相关信息,然后利用这些数据生成更准确且更具上下文感知的回复。此过程可确保 AI 系统的输出更有依据、更可靠。
  • RAG 将大型语言模型 (LLM) 和检索机制相结合。虽然 LLM 是基于预先训练的数据生成文本,但 RAG 通过实时从外部源检索相关信息可以增强此功能,从而提高了准确性和相关性。本质上,LLM 依赖于学习到的模式,而 RAG 则主动获取最新信息来为其回复提供依据。