当前位置: 首页 > news >正文

网站速成班有哪些专业免费的个人简历模板下载

网站速成班有哪些专业,免费的个人简历模板下载,公司企业网站维护,葫芦岛长城建设公司网站LLMs之Memory#xff1a;《LLMs Do Not Have Human-Like Working Memory》翻译与解读 导读#xff1a;该论文通过三个精心设计的实验#xff0c;证明了当前的大型语言模型#xff08;LLMs#xff09;缺乏类似人类的工作记忆。实验结果表明#xff0c;LLMs无法在没有明确外…LLMs之Memory《LLMs Do Not Have Human-Like Working Memory》翻译与解读 导读该论文通过三个精心设计的实验证明了当前的大型语言模型LLMs缺乏类似人类的工作记忆。实验结果表明LLMs无法在没有明确外部提示的情况下内部维持和操作信息导致不真实的响应和自我矛盾。该研究强调了LLMs在认知能力上的局限性并鼓励未来的研究将工作记忆机制集成到LLMs中以提高它们的推理能力和类人程度。 背景痛点 ● 人类的工作记忆是一个活跃的认知系统不仅可以临时存储信息还可以处理和利用信息。 ● 缺乏工作记忆会导致不真实的对话、自我矛盾以及难以完成需要心理推理的任务。 ● 现有的大型语言模型LLMs在一定程度上表现出类似人类的能力但它们是否具备人类一样的工作记忆能力仍然未知。 ● 之前的研究使用N-back任务来评估LLM的工作记忆但这些测试的关键信息存在于LLM可以访问的输入上下文中这与人类测试有显著不同。 ● 需要设计新的实验关键信息不能明确地存在于上下文中以更准确地评估工作记忆。 具体的解决方案 ● 设计了三个实验来验证LLMs是否缺乏类似人类的认知能力特别是工作记忆 ● 数字猜测游戏Number Guessing Game ● 是非游戏Yes-No Game ● 数学魔术Math Magic ● 这些实验旨在测试LLMs是否可以在没有明确外部化到上下文中的情况下内部保持信息。 核心思路步骤 * 数字猜测游戏 ● 让LLM“思考”一个1到10之间的数字。 ● 询问LLM一系列问题例如“你正在想的数字是7吗回答是或否。” ● 记录LLM对每个数字回答“是”的频率并将其视为概率。 ● 如果这些概率之和与1显著偏离则表明LLM要么没有思考一个特定的数字要么在说谎。 * 是非游戏 ● 让LLM“想象”一个物体。 ● 提出一系列比较问题涉及该物体和其他参考物体例如“该物体比大象重吗” ● 记录LLM在出现自我矛盾之前完成的问题数量。 ● 如果LLM在所有问题中都没有出现矛盾则认为该试验通过。 * 数学魔术 ● 让LLM“思考”四个数字并执行一系列操作包括复制、旋转和移除。 ● 这些操作经过精心设计最终只剩下两个数字并且这两个数字是相同的。 ● 测量LLM正确完成任务的试验比例。 模型评估 ● 在多种模型系列GPT、Qwen、DeepSeek、LLaMA和推理方法CoT、o1-like reasoning上进行实验。 ● 分析实验结果以确定LLMs是否表现出类似人类的认知行为。 优势 ● 实验设计巧妙三个实验都避免了将关键信息明确地放在上下文中从而更准确地评估了LLM的工作记忆。 ● 多样化的模型评估在多种模型系列和推理方法上进行了实验从而更全面地了解了LLM的工作记忆能力。 ● 结果一致所有实验的结果都表明LLMs缺乏类似人类的工作记忆。 ● 强调了LLM的局限性指出了LLM在内部表示和操作瞬时信息方面的不足。 结论和观点 ● LLMs不具备类似人类的工作记忆。 ● LLMs无法在多个推理步骤中内部表示和操作瞬时信息而是依赖于即时提示上下文。 ● 即使是高级的提示策略例如CoT提示也只能在需要内部状态管理的任务上产生微小的改进。 ● LLMs的这一局限性会导致不真实的响应、自我矛盾以及无法进行心理操作。 ● 未来的研究应该侧重于将工作记忆机制集成到LLMs中以增强它们的推理能力和类人程度。 ● 实验结果表明较新的模型不一定优于较旧的模型。 ● 使用CoT推理并不能提高性能。 ● LLMs在数字选择上存在偏差倾向于选择数字7。 目录 《LLMs Do Not Have Human-Like Working Memory》翻译与解读 Abstract 1、Introduction Figure 1:When ChatGPT says it already has a number in mind, and it is not 4, how can we know whether ChatGPT is lying?图 1当 ChatGPT 说它心里已经有一个数字而且这个数字不是 4 时我们怎么知道 ChatGPT 是否在说谎 Figure 2:Probabilities of model answering “Yes” for each number from one to ten.图 2模型对从 1 到 10 的每个数字回答“是”的概率。 Conclusion 《LLMs Do Not Have Human-Like Working Memory》翻译与解读 地址 地址[2505.10571] LLMs Do Not Have Human-Like Working Memory 时间 2025年4月30日 作者 Jen-tse Huang Kaiser Sun Wenxuan Wang Mark Dredze Abstract Human working memory is an active cognitive system that enables not only the temporary storage of information but also its processing and utilization. Without working memory, individuals may produce unreal conversations, exhibit self-contradiction, and struggle with tasks requiring mental reasoning. In this paper, we demonstrate that Large Language Models (LLMs) lack this human-like cognitive ability, posing a significant challenge to achieving artificial general intelligence. We validate this claim through three experiments: (1) Number Guessing Game, (2) Yes or No Game, and (3) Math Magic. Experimental results on several model families indicate that current LLMs fail to exhibit human-like cognitive behaviors in these scenarios. By highlighting this limitation, we aim to encourage further research in developing LLMs with improved working memory capabilities. 人类的工作记忆是一种活跃的认知系统它不仅能够暂时存储信息还能对其进行处理和利用。如果没有工作记忆个体可能会产生不切实际的对话表现出自相矛盾并且难以完成需要进行思维推理的任务。在本文中我们证明了大型语言模型LLMs缺乏这种类似人类的认知能力这对实现通用人工智能构成了重大挑战。我们通过三个实验来验证这一论断1猜数字游戏2是或否游戏3数学魔术。在多个模型家族上的实验结果表明当前的 LLMs 在这些场景中未能展现出类似人类的认知行为。通过强调这一局限性我们旨在鼓励进一步研究以开发具有改进工作记忆能力的 LLMs。 1、Introduction Imagine the following scenario: You select a number between one and ten. When ready, you are asked, “Is the number greater than five?” Upon answering, others can infer that the number has likely entered your conscious awareness, as its clear perception is necessary for making the comparison and providing a response. Such conscious awareness is commonly referred to as Working Memory (Atkinson Shiffrin, 1968). In contrast to long-term memory, working memory is the system required to maintain and manipulate information during complex tasks such as reasoning, comprehension, and learning (Baddeley, 2010). Deficits in working memory can impair information processing and hinder effective communication (Gruszka Nkecka, 2017; Cowan, 2014). 想象以下场景您选择一个 1 到 10 之间的数字。准备好后有人问您“这个数字大于 5 吗”在回答时其他人可以推断出这个数字很可能已经进入了您的意识因为清晰地感知到它对于进行比较和给出回答是必要的。 这种意识通常被称为工作记忆阿特金森和希夫林1968 年。与长期记忆不同工作记忆是完成推理、理解、学习等复杂任务时维持和处理信息所必需的系统巴德利2010 年。工作记忆的缺陷会损害信息处理并妨碍有效沟通格鲁斯卡和恩凯卡2017 年考恩2014 年。 In this paper, we demonstrate that, despite exhibiting increasingly human-like abilities (Huang et al., 2024b, a), Large Language Models (LLMs) lack a fundamental aspect of human cognition: working memory. As a result, LLMs generate unrealistic responses, display self-contradictions, and fail in tasks requiring mental manipulation. Previous studies have used the N-back task (Kirchner, 1958) to evaluate the working memory of LLMs (Gong et al., 2024; Zhang et al., 2024). However, a fundamental limitation of these tests is that the critical information needed to answer correctly is in the input context accessible to LLMs. This differs markedly from human testing, where participants cannot view prior steps. LLMs, in contrast, can simply attend to earlier input tokens retained in their context window. To more accurately assess working memory, it is essential to design experiments in which the key information is not explicitly present in the context. The core challenge is to prove that there is actually nothing in LLMs’ mind without knowing what exactly is in their mind. To investigate this limitation, we design three experiments—(1) Number Guessing Game, (2) Yes-No Game, and (3) Math Magic—that test whether LLMs can maintain information internally without explicitly externalizing it in the context. Experimental results reveal that LLMs consistently fail in this capacity, regardless of model family (GPT (Hurst et al., 2024), Qwen (Yang et al., 2024), DeepSeek (Liu et al., 2024; Guo et al., 2025), LLaMA (Grattafiori et al., 2024)) or reasoning approach (Chain-of-Thought (CoT) (Wei et al., 2022) or o1-like reasoning (Jaech et al., 2024)). 在本文中我们将证明尽管大型语言模型LLMs展现出越来越接近人类的能力黄等人2024 年 ba但它们缺乏人类认知的一个基本方面工作记忆。因此LLMs 会产生不切实际的回答表现出自相矛盾并在需要心理操作的任务中失败。先前的研究使用 N-back 任务Kirchner1958 年来评估大语言模型LLM的工作记忆Gong 等人2024 年Zhang 等人2024 年。然而这些测试的一个根本局限在于正确回答所需的关键信息在大语言模型可访问的输入上下文中。这与人类测试明显不同在人类测试中参与者无法查看之前的步骤。相比之下大语言模型只需关注其上下文窗口中保留的早期输入标记即可。为了更准确地评估工作记忆设计实验时必须确保关键信息不在上下文中明确呈现。 核心挑战在于在不了解大语言模型具体思维内容的情况下证明其内部确实没有某些信息。为了探究这一局限我们设计了三个实验——1数字猜谜游戏2是或否游戏以及3数学魔术——来测试大语言模型是否能够在不将信息明确外显于上下文的情况下在内部保持信息。实验结果表明无论模型属于哪个家族GPTHurst 等人2024 年、QwenYang 等人2024 年、DeepSeekLiu 等人2024 年郭等人2025 年、LLaMA格拉塔菲奥里等人2024 年或推理方法链式思维CoT魏等人2022 年或类似 o1 的推理杰奇等人2024 年。 Figure 1:When ChatGPT says it already has a number in mind, and it is not 4, how can we know whether ChatGPT is lying?图 1当 ChatGPT 说它心里已经有一个数字而且这个数字不是 4 时我们怎么知道 ChatGPT 是否在说谎 Figure 2:Probabilities of model answering “Yes” for each number from one to ten.图 2模型对从 1 到 10 的每个数字回答“是”的概率。 Conclusion In this study, we present three carefully designed experiments to investigate whether LLMs possess human-like working memory for processing information and generating responses. Across all experiments, the results reveal a consistent pattern: LLMs do not exhibit behavior indicative of a functional working memory. They fail to internally represent and manipulate transient information across multiple reasoning steps, relying instead on the immediate prompt context. Even advanced prompting strategies, such as CoT prompting, yield only marginal improvements on tasks requiring internal state management. This limitation leads to unrealistic responses, self-contradictions, and an inability to perform mental manipulations. We hope these findings encourage future research on integrating working memory mechanisms into LLMs to enhance their reasoning capabilities and human-likeness. 在本研究中我们精心设计了三个实验来探究大型语言模型LLMs是否具备类似人类的工作记忆来处理信息和生成回应。在所有实验中结果呈现出一致的模式LLMs 并未表现出具有功能性的工作记忆的行为特征。它们无法在多个推理步骤中内部表示和操作瞬时信息而是依赖于即时的提示上下文。即使采用先进的提示策略如链式思维CoT提示在需要内部状态管理的任务上也仅能带来微小的改进。这种局限性导致了不切实际的回应、自相矛盾以及无法进行心理操作。我们希望这些发现能鼓励未来的研究将工作记忆机制整合到 LLMs 中以增强其推理能力和类人特性。
http://www.hkea.cn/news/14400955/

相关文章:

  • 建设网站产品图片显示不全怎么做透明的网站图片
  • 安徽 两学一做 网站教学网站开发应指导方案
  • 网站解决方案设计ppt模板网站排行
  • 做网站python和php哪个好学中国建设银行手机网站
  • P2P网站怎么建设下列不能反应企业网站建立网络
  • 如何优化网站首页代码wordpress个人博客建站
  • 宁波甬晟园林建设有限公司网站保险做的好的网站有哪些内容
  • 英文版科技网站怎样开网店流程视频
  • 邳州网站建设天津wordpress开发
  • 佛山南海网站开发电影网站建设公司
  • 中国免费素材网站电商培训班学了有用吗
  • 网站速成班有哪些专业外包公司催收合法吗
  • 长沙优化网站推广广州注册公司有什么优惠政策
  • 网站设计客户需求里水网站设计
  • 网站访问速度检测新网站如何做快照
  • 上海专业做网站建设如何做上海建站网站建设
  • 网站设计要素做聚美优品网站得多少钱
  • 网站开发技术与应用试验报告4做网站app价格多少钱
  • 成都模板建站代理公司网址注册一般需要多少钱
  • 怎样自学网站开发长春火车站在哪个区
  • 晋中市两学一做网站山西太原做网站
  • 个人网站做淘宝客教程嘉兴云建站模板
  • 河北城乡和住房建设厅官方网站无上升级系统
  • 万表网欧米茄网站排名seo软件
  • 上海网站建设报价单子现说济南网约车公司
  • 中介专门做别墅的网站杭州网站优化效果
  • 网站设计 seo找客户的100个渠道
  • 怎么做单页网站导航快递网站怎么做的
  • 涿州网站建设公司有哪些asp建的网站上传文章
  • 公司网站的关键词推广怎么做和动物做的网站