cms网站开发涉及的知识,网站免费打包,网站开发工作前景,营销方案有哪些论文地址#xff1a;https://arxiv.org/ftp/arxiv/papers/2401/2401.11246.pdf 原文地址#xff1a;https://cobusgreyling.medium.com/prompt-rag-98288fb38190 2024 年 3 月 21 日 虽然 Prompt-RAG 确实有其局限性#xff0c;但在特定情况下它可以有效地替代传统向量嵌入 … 论文地址https://arxiv.org/ftp/arxiv/papers/2401/2401.11246.pdf 原文地址https://cobusgreyling.medium.com/prompt-rag-98288fb38190 2024 年 3 月 21 日 虽然 Prompt-RAG 确实有其局限性但在特定情况下它可以有效地替代传统向量嵌入 RAG 方法。 介绍 Prompt-RAG 与 RAG 类似提供矢量数据库和无嵌入策略以增强特定领域应用程序的大型语言模型 (LLM)。 与 RAG 不同RAG 需要数据分块和向量嵌入来进行语义搜索和检索Prompt-RAG 可以无缝运行无需此类过程。 RAG 检索增强生成 (RAG) 将生成能力与信息检索技术无缝融合。 RAG 通过将大型语言模型 (LLM) 的稳健性与实时和上下文信息相结合战略性地解决了生成模型的固有局限性。 结果是LLM生成的响应表现出自然和类人的品质同时也是最新的、精确的并且与所提供的查询在上下文上保持一致。 传统上RAG 首先将输入查询转换为向量嵌入。 然后利用这些嵌入从矢量化数据库中检索相关数据。随后RAG 的生成组件利用检索到的外部数据来制作上下文相关的响应。 在此过程中嵌入模型和生成模型都发挥着至关重要的作用显着影响RAG的有效性并直接影响检索过程。 提示 RAG 步骤 Prompt-RAG 包含三个步骤 预处理标题选择检索增强生成 来源 预处理 在初始阶段根据文档创建目录 (ToC)至关重要。 这些文档与 Prompt-RAG 旨在解决的特定领域有着错综复杂的联系。 理想情况下文档作者应该已经准备好目录。 但是如果没有可以手动制作。或者可以部署大型语言模型 (LLM) 来生成 ToC特别是在明确定义文档结构的情况下。 LLM 的上下文窗口大小显着影响目录和检索到的文档部分的大小。 为了优化标记大小可以通过消除页眉、页脚、页码等元素来格式化文档。 这种格式可确保目录和检索部分中文档内容的简化和简洁表示。 标题选择 提示包括用户查询以及目录 (ToC)然后将其提供给大型语言模型 (LLM)。 LLM 旨在识别目录中与查询最相关的标题。 在某些情况下可以选择多个标题并且为了进一步细化选择可以对文本进行总结。此摘要过程有助于缩小选项范围确保所选标题与用户查询最相关。 可以根据预算和用于答案生成的生成模型的上下文窗口大小提前在提示中设置所选标题的数量。 一个重要的元素是优化提示以实现准确的 ToC 检索和令牌使用效率。 提示词注入 下一步涉及检索与所选标题相对应的文档部分然后在推理过程中将其作为上下文引用注入到提示中。 注入到提示中的参考文本的大小必须小于 LLM 的上下文窗口大小这一点至关重要。 为了确保符合此要求可以采用大型语言模型 (LLM) 来总结、截断或以其他方式修剪检索到的“块”。 此过程对于调整参考文本以适应上下文窗口大小的约束并最小化标记使用是必要的从而优化效率。 如果由于查询是问候语或随意对话而导致所选标题缺失则不带参考部分的替代提示将传递到基于 GPT-3.5-turbo 的模型以减少令牌使用并节省费用。 生成答案的提示如下所示 You are a chatbot based on a book called {Book Name}. Here is a record of previous conversations:{history}Reference: {context}Question: {question}Use the reference to answer the question.The reference above is only fractions of .Be informative, gentle, and formal.If you cant answer the question with the reference, just say like
I couldnt find the right answer this time.Answer in {Language of Choice}: 在提示模板下方没有选择标题以供随意查询... You are a chatbot based on a book called {Book Name}. Here is a record of previous conversation for your smooth chats.:{history}Question: {question}Answer the question.Be informative, gentle, and formal.
Answer in {Language of Choice}:” 综上所述 即使 Prompt-RAG 没有独立使用Prompt-RAG 研究的重要性也是不可否认的。在某些情况下Prompt-RAG 可以充当更大的实施框架中的组件。 通过创新方法优化和利用即时工程与围绕应用程序构建更复杂的数据管理框架之间存在着永久的平衡。通常随着实现的使用和复杂性的扩展后一种方法往往会占主导地位。 然而必须承认 Prompt-RAG 需要一个应用程序框架来监督数据流、验证输入和输出以及进行必要的数据操作。 传统RAG的缺点 优化文档块大小和管理重叠可能是一个挑战。随着数据变化更新块和嵌入以保持相关性。未针对少数语言实现进行优化运行嵌入的额外成本对于较小的实现来说很麻烦对技术要求更高 传统 RAG 与 Prompt-RAG 相比的优势 扩展性良好更多以数据为中心的方法批量数据发现和数据开发对于企业实施仍然很重要。一般来说语义聚类是数据发现的一个重要方面也是实施 RAG 的良好第一步。 Prompt-RAG 优点 非常适合规模较小、技术含量较低的实现和少数语言。非常适合特定需求和实施对于聊天机器人某些意图可以路由到 Prompt-RAG 实现简化可以作为全面 RAG 实施的首次尝试非梯度方法可检查性和可观察性旨在优化 Prompt-RAG 的数据发现和数据设计工具可以增加显着的价值。 Prompt-RAG 缺点 还是需要数据设计。上下文窗口大小是一个障碍。Tokens使用量和成本会更高这需要与嵌入模型tokens成本进行比较。扩展和引入复杂性需要一个技术框架。取决于 LLM 推理延迟和令牌使用成本。需要创建内容结构。该研究主要集中于已有目录的文档。