网站项目怎么做,优化师是做什么的,英文seo,商城网站技术方案简介
提高 RAG 推理能力的一个好方法是添加查询理解层 ——在实际查询向量存储之前添加查询转换。以下是四种不同的查询转换#xff1a;
路由#xff1a;保留初始查询#xff0c;同时查明其所属的适当工具子集。然后#xff0c;将这些工具指定为合适的选项。查询重写
路由保留初始查询同时查明其所属的适当工具子集。然后将这些工具指定为合适的选项。查询重写维护选定的工具但以多种方式重新编写查询以将其应用于同一组工具。子问题将查询分解为几个较小的问题每个问题针对由其元数据确定的不同工具。ReAct Agent 工具选择根据原始查询确定要使用的工具并制定要在该工具上运行的特定查询。
HyDE来自于Precise Zero-Shot Dense Retrieval without Relevance Labels这篇文章主要做zero-shot场景下的稠密检索通过借助LLM的力量不需要Relevance Labels开箱即用。作者提出Hypothetical Document Embeddings (HyDE)方法即“假设”文档嵌入。具体的做法是通过GPT生成虚构的文档并使用无监督检索器对其进行编码并在其嵌入空间中进行搜索从而不需要任何人工标注数据 模型结构如下图所示HyDE将密集检索分解为两个任务即 instruction-following的LM生成任务和对比编码器执行的文档相似性任务。
paperhttps://arxiv.org/pdf/2212.10496
codehttps://github.com/texttron/hyde原理以及实现
典型的密集信息检索过程包括以下步骤
将查询和文档转换为嵌入向量计算查询和文档之间的余弦相似度返回余弦相似度最高的文档 通过 HyDEquery embedding我做了一些改进。首先让 LLM 生成回答查询的文档然后将生成的虚拟答案转换为嵌入而不是直接将查询转换为嵌入。 我们在LangChain上实际使用一下。
from langchain.embeddings import OpenAIEmbeddings
from langchain.chains import LLMChain, HypotheticalDocumentEmbedder
from langchain.prompts import PromptTemplate
from langchain.chat_models import ChatOpenAI
from dotenv import load_dotenv
# set the environment variables
load_dotenv()# prepare the prompt template for document generation
Prompt_template 回答问题。
问题{question}
回答”””
llm ChatOpenAI()
# multi_llm ChatOpenAI(n4)
prompt PromptTemplate(input_variables[question], templateprompt_template)
llm_chain LLMChain(llmllm, promptprompt, verboseTrue)# initialize the hypothetical document embedder
base_embeddings OpenAIEmbeddings()
embeddings HypotheticalDocumentEmbedder(llm_chainllm_chain, base_embeddingsbase_embeddings)result embeddings.embed_query(塞尔达传说的主角是谁)
len(result)