当前位置: 首页 > news >正文

网站怎么做长截图做网站显示不同字体

网站怎么做长截图,做网站显示不同字体,莱芜网络公司案例,无后台基础怎么建设网站AI知识点总结#xff1a;【AI知识点】 AI论文精读、项目、思考#xff1a;【AI修炼之路】 P1#xff0c;P2#xff0c;P3 四、隐性事实查询#xff08;L2#xff09; 4.1 概述 ps#xff1a;P2有四种查询#xff08;L1#xff0c;L2#xff0c;L3#xff0c;L4【AI知识点】 AI论文精读、项目、思考【AI修炼之路】 P1P2P3 四、隐性事实查询L2 4.1 概述 psP2有四种查询L1L2L3L4的举例对比 隐性事实查询是指那些依赖于数据中未立即显现的关联需要通过常识推理或基本逻辑推断才能得出的查询。这类信息可能分散在多个文档片段或数据段中必须通过推理或简单推导来得出答案。这一层次的查询通常需要从数据集中多个文档中收集和处理信息而这些所需信息的集合可能超过单次检索的能力。因此需要将原始查询分解为多个检索操作并将结果汇总为综合性答案。 这些查询通常涉及常识推理无需特定领域的专业知识。常见的查询类型包括统计查询、描述性分析查询和基础聚合查询。 可能需要对多个片段进行计数、比较、趋势分析和选择性总结。 隐性事实查询L2定义 对于查询 q q q 及其对应的答案 a a a一个L2 隐性事实查询的定义如下 存在一组显式事实查询 { q 1 , q 2 , … , q m } ⊂ Q 1 \{q_1, q_2, \dots, q_m\} \subset Q_1 {q1​,q2​,…,qm​}⊂Q1​每个显式查询都可以从数据集 D D D 中的特定片段中检索出来 r D ( q ) ⋃ i 1 m r D ( q i ) r_D(q) \bigcup_{i1}^{m} r_D(q_i) rD​(q)i1⋃m​rD​(qi​) 其中 r D ( q i ) r_D(q_i) rD​(qi​) 表示检索到的满足子查询 q i q_i qi​ 的相关数据片段所有这些子查询的检索结果之和并集构成了回答查询 q q q 所需的信息集合。 一个响应生成器 θ \theta θ通常是一个提示的LLM推断用于构建答案 a a a。通过聚合显式查询的响应 { θ ( r D ( q 1 ) ) , θ ( r D ( q 2 ) ) , … , θ ( r D ( q m ) ) } \{\theta(r_D(q_1)), \theta(r_D(q_2)), \dots, \theta(r_D(q_m))\} {θ(rD​(q1​)),θ(rD​(q2​)),…,θ(rD​(qm​))} 并应用常识推理来推导数据中未明确说明的答案。生成的响应 θ ( r D ( q ) ) \theta(r_D(q)) θ(rD​(q)) 应该接近于答案 a a a这表明查询 q q q 可以通过显式查询的响应聚合得到有效的答案。 示例 以下是该级别的一些查询示例 有多少个实验样本的样本量大于1000给定实验记录集过去一个月提到最多的三个词汇是什么 给定医学记录集公司X和公司Y的AI战略是什么 基于公司X和公司Y的最新新闻和文章进行汇总 总结来说L2查询不仅仅依赖于单一片段的检索它通过将多个显式事实组合并推理得出最终答案。这类查询通常要求模型有能力在检索和推理之间有效协调以应对复杂问题。 4.2 挑战与解决方案 在隐性事实查询Level-2 Queries 中问题仍然围绕着事实展开但答案并不直接存在于某一单一的文本段落中。相反回答这些问题需要将多个事实结合起来并通过常识推理得出结论。这一层次的查询带来了以下主要挑战 1. 检索量的适应性问题Adaptive Retrieval Volumes 不同的问题可能需要检索不同数量的上下文信息。 挑战如果使用固定数量的检索结果可能会导致两种情况 信息噪音检索到的上下文过多其中包含了大量无关或冗余的信息。信息不足检索的上下文过少导致无法获取足够的信息来准确回答问题。 解决方案需要设计能够根据问题和数据集的性质动态调整检索数量的方法以平衡信息量和噪音问题。 2. 推理与检索之间的协调Coordination Between Reasoning and Retrieval 推理和检索之间存在着相互依赖的关系 推理推理可以指导模型聚焦在需要检索的具体信息上。例如通过初步的推理可以确定哪些事实是相关的哪些数据片段是值得检索的。 检索检索到的信息可以为进一步的推理提供依据和方向。模型可以根据检索到的内容动态调整推理策略进行迭代推理。 挑战有效的推理和检索之间需要智能整合确保模型能灵活地从外部数据中提取关键信息同时运用LLMs大语言模型固有的推理能力。 解决方案需要采用高级的检索增强生成RAG策略例如 迭代式RAGIterative RAG通过反复检索与生成不断修正和改进答案。基于图结构或树结构的RAGRAG on Graph/Tree使用图结构或树形结构来组织信息帮助在复杂查询中找到相关的多跳信息。RAG与SQL结合RAG with SQL当数据结构化时可以通过SQL查询更高效地从数据库中提取所需信息。 4.3 迭代式RAGIterative RAG 隐性事实查询与多跳RAG任务有相似之处。这类方法通过动态控制多步骤的RAG过程逐步收集或纠正信息直到找到正确答案。迭代式RAG的关键在于分阶段地检索和生成信息以保证答案的正确性和可靠性。 1. 基于规划的迭代方法Planning-based Iterative Methods 这类方法在检索前阶段或检索过程中生成一个逐步检索的计划通过动态调整每一步的检索重点逐步缩小检索范围并引导系统找到答案。 ReAct [93]该方法逐步更新每个步骤的检索目标减少问题回答过程中知识上的差距。 IRCoT [94] 和 RAT [95]利用思维链Chain of Thought, CoT 来引导RAG流程基于之前检索到的信息做出下一步检索目标的决策。这种方法依赖每一步推理和检索之间的反馈确保每一次的检索能够为下一个步骤提供有用的上下文信息。 GenGround [96]这种方法允许LLMs在两个阶段间交替直到获得最终答案 生成一个更简单的单步问题并提供直接答案将问答对追溯回检索到的文档验证并纠正预测中的不准确之处。 这种迭代过程确保了回答的可靠性和准确性。 2. 基于信息填补的迭代方法Information Gap Filling-based Iterative Methods 这种方法通过一轮又一轮的检索与生成逐步填补已知信息中的空白确保最终的答案涵盖了问题的所有方面。 ITRG [97]该框架引入了一个迭代检索-生成协作框架首先基于已有知识生成答案然后继续检索生成过程中未知的部分直到答案完整。FLARE [50]该方法会在每次迭代中重新审视和修改生成答案中的低概率词汇确保答案的精确性。Self-RAG [92]通过微调大模型使其能够自主决定何时继续检索何时停止检索并开始回答问题。这种方法让模型具备了更强的自主性在检索与生成的过程之间取得平衡保证了答案的准确性。 4.4 图/树结构问题回答Graph/Tree Question Answering 隐性事实查询通常需要从多个参考来源综合信息而图Graph或树Tree 结构——无论是基于知识的还是数据结构化的——都能够自然地表达文本之间的关系结构非常适合这种数据检索问题。 1. 传统知识图谱Knowledge Graph, KG 传统知识图谱是最初被考虑用于增强LLMs大语言模型效能的结构之一。在知识图谱中每个节点代表一个实体节点之间的边表示这些实体之间的关系。知识图谱与LLM的结合能够有效地扩展模型的推理能力。 KG增强的LLM将知识图谱KG整合到LLM的预训练和推理阶段帮助LLM加深对已获取知识的理解【98】。LLM增强的KG使用LLM进行KG任务例如嵌入、补全、构建、图-文本生成以及问题回答等【98】。协同LLMKG采用双向推理机制使LLM与KG互相补充通过数据和知识驱动的推理相互提升【98】。 例如Rigel-KQGA模型【99】是一个端到端的知识图谱问答KGQA模型它根据查询预测必要的知识图谱节点并将这些节点与LLM结合以推导出答案。 一些其他相关工作包括 Think-on-Graph【100】和KnowledgeNavigator【101】这些方法提取查询中涉及的实体然后在图上执行迭代的广度优先搜索BFS使用LLM作为推理引擎来决定最佳的探索路径并进行剪枝。R3模型【102】通过LLM引入若干可能的常识性公理依次搜索相关知识子图直到足够的信息被收集来回答问题。 2. 数据块图/树Data Chunk Graph/Tree 数据块图或树结构是另一种被广泛研究的图谱构建方法与传统知识图谱相比LLMs具备强大的阅读理解能力可以直接处理文本而不需要将其分解为最细粒度的实体和关系。 在这一框架下研究人员开始尝试将文本块或数据块作为图或树上的节点使用边表示高层次或更为复杂的关系。 Knowledge-Graph-Prompting【103】讨论了三类需要从图谱中挖掘隐性事实的问题 桥接问题Bridging questions依赖于顺序推理比较问题Comparing questions依赖于对不同段落的并行推理结构性问题Structural questions依赖于文档结构层次的内容提取。 这种方法通过实体识别、TF-IDF、KNN和文档结构层次来构建文档图并提取子图以回答问题。 MoGG模型【44】将一到两句话视为最小的语义单元使用它们作为节点并基于节点间的语义相似性建立边。此外它训练一个预测器来决定回答查询所需的文本粒度确定需要多大的子图。 RAPTOR模型【43】通过聚类算法将最小的文本块进行分层聚类在每个层次上总结新的语义信息并在压缩后的节点树中检索最必要的信息。 GraphRAG模型【104】采用了一种聚类的方法首先根据语义相似性连接最小的文本块然后使用社区检测算法对节点进行分组。最终通过分析每个节点社区内的响应来总结查询的全局答案。 4.5 自然语言转SQL查询Natural Language to SQL Queries 在处理结构化数据时将自然语言查询转换为SQLNL2SQL是一种有效的方法。工具如Chat2DB能够将用户的自然语言查询转换为数据库查询。随着大语言模型LLM时代的到来文本到SQLtext-to-SQL领域取得了显著进展【105, 106, 107, 108】。通过这些进展我们可以利用这些工具从结构化数据库中检索信息为LLM的生成能力提供有力的外部数据支持。 NL2SQL的作用 通过整合文本到SQL的工具【109】LLM能够访问和利用结构化数据从而增强其生成更准确和上下文相关的回答的能力。这种整合不仅提高了生成内容的深度和质量还扩展了LLM的应用范围使其能够执行更多复杂的任务这些任务需要与数据库内容交互并解释其结果。 4.6 关于事实查询的讨论 是否需要进行微调 一些研究【110】表明微调fine-tuning 过程中LLMs在获取新事实性知识时面临挑战。这一过程可能导致LLM生成准确响应的整体表现下降并且通常会产生更多的幻觉hallucinations。此外研究【111】指出使用新的事实性数据进行微调可能导致模型机械记忆rote memorization 事实陈述。然而修改这些记忆化事实的措辞可能会使模型无法有效应用新学到的知识这表明LLM在理解和保留新信息时仅停留在表面。这一发现揭示了现有微调过程的局限性并强调了整合和适应新信息的更复杂方法的需求。 是否需要区分不同层次的事实查询 无论是显性事实查询explicit fact queries 还是隐性事实查询implicit fact queries它们都基于事实。然而在构建数据增强的LLM应用之前确定查询属于哪个层次是至关重要的。如果将显性事实查询误分类为隐性事实查询可能会检索到大量表面看似相关但最终无助于回答问题的冗余信息从而误导LLM并浪费计算资源。相反如果将隐性事实查询误认为显性事实查询则可能导致无法使用适当的方法来检索足够全面的外部辅助数据。 隐性事实查询通常需要动态整合与查询上下文相关的多维度信息而显性事实查询通常只需要一个单一数据片段这使得它们往往会检索到固定量的外部数据。这可能导致LLM表现不佳。因此在理解目标任务的基础上预先区分查询的层次将是有利的。此外大量研究致力于训练模型自主评估所检索的信息是否足够代表性的方法如Self-RAG【92】。这些方法通过让模型判断何时停止检索并开始回答问题来提升模型的推理能力和对信息充足性的评估。 未完待续。。。
http://www.hkea.cn/news/14506274/

相关文章:

  • 贵州省城乡与住房建设部网站贵阳做网站优化
  • 个人可以做几个网站家政服务技术支持东莞网站建设
  • 中国机械工业建设集团有限公司网站企业管理方法
  • 网页与网站设计 什么是属性公司一般都用什么邮箱
  • 四川省建设厅资格注册中心网站做网站的公司现在还 赚钱吗
  • 网站建设项目外包合同范本微信小程序api接口
  • 企业活动网站创意案例品牌提升方案
  • 免费销售网站模板下载安装网站建设设计制作公司
  • 织梦网站程序模板下载地址大连企业模板建站
  • 网站源码下载搭建公司网站首页设计模板
  • 电子商务网站建设概述做网站架构需要什么工具
  • 江苏省建设厅网站公示做网站找我
  • 5种有效增加网站流量wordpress媒体库上传
  • 江苏嘉瑞通建设有限公司网站公司网站建设需要提供什么材料
  • wordpress个人展示网站6东莞页面设计的培训
  • 网站建设二团队郑州专业做淘宝网站
  • 成都大邑网站建设珠海企业网站建设公司
  • 外贸做企业什么网站网站开发是打代码吗
  • 网站建设 淘宝运营百度百度地图
  • 连云港网站建设培训班设计类专业网站
  • 公司网站建设费维护费会计分录有没有学做衣服的网站
  • 电商网站话费充值怎么做wordpress+景点模板
  • 网站搭建赚钱吗学校英文网站建设
  • 网站建设课程 谷建企业网站制作与维护
  • 微信第三方做网站需要费用吗最专业的营销网站建设
  • 外国人做的中国字网站wordpress静态链接设置完了404
  • 网站做长尾词好还是单个词好wordpress 插件提示
  • 科协网站建设的建议南宁网站建设优化
  • 佛山网站seo牟平网站制作
  • 济南做网站找泉诺冒用他人公司做网站