网站建设改版目的,部门网站建设方案,网站的js效果代码,工作服定制来源: 专知 任务语义可以用一组输入到输出的例子或一条文本指令来表示。传统的自然语言处理(NLP)机器学习方法主要依赖于大规模特定任务样本集的可用性。出现了两个问题: 首先#xff0c;收集特定于任务的标记示例#xff0c;不适用于任务可能太复杂或太昂贵而无法注释#… 来源: 专知 任务语义可以用一组输入到输出的例子或一条文本指令来表示。传统的自然语言处理(NLP)机器学习方法主要依赖于大规模特定任务样本集的可用性。出现了两个问题: 首先收集特定于任务的标记示例不适用于任务可能太复杂或太昂贵而无法注释或系统需要立即处理新任务的场景;其次这对用户来说并不友好因为最终用户可能更愿意在使用系统之前提供任务描述而不是一组示例。因此社区对NLP的一种新的监督寻求范式付出了越来越大的兴趣: 从任务指令中学习。尽管取得了令人印象深刻的进展但社区仍面临一些共同的问题。本文试图从以下几个方面对当前的指令学习研究进行总结:(1)什么是任务指令存在哪些指令类型?(ii)如何为指令建模?(iii)哪些因素影响和解释指令的执行?(四)指令中还存在哪些挑战?据我们所知这是第一次对文本指令的全面调查。
下载地址https://pan.baidu.com/s/14CajSkOyuH-AiXlfZoZb8Q?pwd8e8m
1. 引言
人工智能的一个目标是建立一个可以普遍理解和解决新任务的系统。标记示例作为主流任务表示不太可能大量可用甚至不存在。那么是否有其他任务表示可以有助于任务理解?任务指令为表达任务语义提供了另一个监督维度指令往往包含比单个标记示例更抽象和全面的目标任务知识。如图1所示通过任务指令的可用性可以快速构建系统来处理新任务特别是在特定于任务的注释稀缺的情况下。指令学习是受典型的人类对新任务的学习启发例如小孩可以通过从指令和几个例子中学习来很好地解决一个新的数学任务(Fennema et al. 1996;)。这种新的学习范式最近引起了机器学习和NLP社区的主要关注(Radford等人2019;Efrat和Levy, 2020;Brown等人2020年)。 当谈到任务指令时我们大多数人首先会将这个概念与提示联系起来——使用一个简短的模板将新的输入重新格式化为语言建模问题以便为启动PLM回复响应 (Liu et al. 2023)。尽管提示在文本分类、机器翻译等中普遍存在但提示只是指令的一种特殊情况。本文对指令驱动的NLP研究进行了全面和更广泛的看法。具体来说我们试图回答以下问题: 什么是任务指令存在哪些指令类型? 给定任务指令如何对其进行编码以帮助完成目标任务? 哪些因素(如模型大小、任务数量)影响指令驱动系统的性能以及如何设计更好的指令? 指令学习能带来什么应用? 指令学习中存在哪些挑战未来的方向是什么? 据我们所知这是第一篇调研文本指令学习的论文。与一些现有的侧重于特定上下文指令的调研相比例如提示(Liu等人2023)、按输出输入的演示(Dong等人2023)或推理(Huang和Chang, 2022;Qiao et al. 2022)我们提供了一个更广泛的视角以有组织的方式连接该领域的不同研究。希望本文能呈现一个更好的指令学习故事吸引更多同行来研究这个具有挑战性的人工智能问题。我们还发布了本次调研的相应阅读清单。
2. 基础知识
对于任务式学习目标是通过遵循指令来驱动系统达到给定输入的输出。因此一个数据集由三个元素组成:
Input (X): 实例的输入;它可以是一段文本(如情感分类)或一组文本(如文本蕴涵、问题回答等)。
Output (Y): 实例的输出;在分类问题中它可以是一个或多个预定义标签;在文本生成任务中它可以是任何开放形式的文本。
模板(T): 一种文本模板试图单独表达任务的含义或者充当X和y之间的桥梁。T可能还不是一种组件结构。
3. 什么是任务指令
在之前的零样本和少样本NLP任务中已经使用了各种类型的文本指令例如提示(Hendrycks等人2021;Srivastava等人2022;Bach等人2022除其他外)Amazon Mechanical Turk 指令(Mishra等人2022b;王等2022c;Yin等人2022年)辅以演示的指令 (Khashabi等人2020年;Ye等人2021;Min等人2022b特别是)和思维链解释(Wei等人2022b;Lampinen等人2022;Li et al. 2022c等。不同的指令最初是为不同的目标设计的(例如Mturk指令最初是为人类标注者理解而创建的提示是为了控制PLM)。在本节中如图2所示我们首先将这些指令总结为三个类别它们执行T、X和ˆY的不同组合(面向蕴含、面向PLM和面向人)然后比较它们并提供指令的正式定义。
3.1 IT^Y:Entailment主导的指令
处理分类任务的一个传统方案是将目标标签转换为索引并让模型决定输入属于哪个索引。这种范式侧重于对输入语义进行编码同时丢失标签语义。为了让系统识别新标签而不依赖于大量标记的示例Yin等人(2019)提出为每个标签建立一个假设——然后推导标签的真值被转换为确定假设的真值。如表1所示这种方法内置在指令(I)中将模板(T)与标签Y相结合以解释每个目标标签(Y)。由于这种范式自然地满足文本蕴含的格式(TE其中任务输入和指令可以分别被视为前提和假设)这些类型的指令被称为面向蕴含(Entailment)的指令。
面向蕴含entailment)的指令学习方法具有以下4个方面的优势:(i)保持了标签语义使得输入编码和输出编码在建模输入输出关系时得到同等的重视;(ii)形成了一个统一的推理过程——文本蕴含——来处理各种NLP问题;(iii)它创造了利用现有TE数据集的间接监督的机会以便预训练TE模型有望在不进行特定任务微调的情况下在这些目标任务上工作;(iv)将原始的闭集标签分类问题扩展为具有少量甚至零类属类样本的开放域开放形式标签识别问题。因此它被广泛应用于各种少样本/零样本分类任务中如分类主题(Yin等人2019)、情感(Zhong等人2021)、姿态(Xu等人2022b)、实体类型(Li等人2022a)和实体关系(Murty等人2020;Xia等2021;Sainz等人2021,2022)。 3.2 IT^X:面向PLM的指令(如ˆ提示)
提示是面向PLM的指令的代表它通常是一个简短的语句前面加上任务输入(前缀提示)或者一个完形填空问题模板(完形填空提示)。它主要用于从预训练的语言模型(PLM)中查询中间响应(可以进一步转换为最终答案)。由于提示输入符合PLM的预训练目标(例如完形风格的输入满足掩码语言建模目标(Kenton和Toutanova, 2019))它有助于摆脱对传统监督微调的依赖并大大减轻人工标注的成本。因此快速学习在大量之前的少量/零样本NLP任务上取得了令人印象深刻的结果例如问答(Radford等人2019;Lin等人2021)、机器翻译(Li等人2022d)、情感分析(Wu和Shi, 2022)、文本蕴含(Schick和Schütze, 2021a,b)和命名实体识别(Cui等人2021;王等2022a)。 3.3 以人为本指示
以人为本的指令基本上是指在人类注释平台上用于众包的指令(例如Amazon MTurk指令)。与面向人的指令不同面向人的指令通常是一些人可读的、描述性的、段落式的任务特定文本信息由任务标题、类别、定义、要避免的事项等组成。因此以人为本的指令更加友好可以理想地应用于几乎任何复杂的NLP任务。 4 如何为指令建模?
在本节中我们总结了几种最流行的指令学习建模策略。总体而言本文介绍了四种不同的建模方案:对于早期的基于机器学习的系统(i)基于语义解析器的策略是编码指令的常用方法;随着神经网络和预训练语言模型的出现(ii)基于提示模板和(iii)基于前缀指令的指令学习模式成为两种备受青睐的范式;最近(iv).基于超网络的方法也引起了更大的兴趣。
5 应用
5.1人机交互
文本指令可以自然地视为一种人机交互方式。之前的许多工作使用自然语言指令来指导计算机执行各种现实世界的任务。
对于非NLP(多模态)任务大多数专注于基于环境的语言学习即驱动智能体将自然语言指令与环境相关联并做出相应的反应例如从图像/视频中选择提到的对象(Matuszek等人2012;Krishnamurthy和Kollar, 2013;Puig等人2018)按照导航指示移动智能体(Tellex等人2011;Kim和Mooney, 2012;陈,2012;Artzi和Zettlemoyer, 2013;Bisk et al. 2016)在地图上绘制相应的痕迹(Vogel和Jurafsky, 2010;Chen和Mooney, 2011)基于给定规则玩足球/纸牌游戏(Kuhlmann等人2004;爱森斯坦等人2009;Branavan等人2011;Babe s-Vroman等人2012;Goldwasser和Roth, 2014)生成实时体育广播(Chen和Mooney, 2008;Liang et al. 2009)、控制软件(Branavan et al. 2010)和查询外部数据库(Clarke et al. 2010)等。与此同时指令也被广泛适用于帮助与系统沟通以解决NLP任务例如遵循操作字符串的指令(Gaddy和Klein, 2019)根据给定的解释对电子邮件进行分类(Srivastava等人2017,2018)以及文本到代码生成(Acquaviva等人2021)。
近年来越来越多的研究倾向于以迭代和模块化的方式设计人机通信过程。例如Li et al.(2020)构建了一个系统来帮助用户处理日常任务(例如点咖啡或请求Uber)。得益于用户友好的图界面系统可以迭代地询问有关任务的问题用户可以不断改进他们的指令以避免不明确的描述或模糊的概念。类似地Dwivedi-Yu等人(2022)提出了一个基准来迭代地指导PLM改进文本其中每次迭代只使用具有精确目的的一小段指令(例如“简化文本”或“使文本中性”)。此外Chakrabarty等人(2022)构建了一个协作写诗系统用户可以最初提供一个模棱两可的指令(例如“写一首关于蛋糕的诗”)然后通过观察模型的中间输出用更多的细节逐步完善指令(例如“包含单词-‘巧克力’”)。同时Mishra和Nouri(2022)提出了一个传记生成系统该系统逐步从用户那里收集必要的个人信息(通过在对话场景中提出问题来引导用户)并最终生成一个段落式的传记。针对非专家用户难以一次性编写完整的指令的问题在基于指令的人工智能系统设计中采用迭代式、模块化的设计范式可以引导用户逐步丰富任务指令从而有效地缓解用户的思维需求使系统更加面向用户。鉴于其实用价值本文强调了这一分支工作的重要性。
5.2 数据和特征增强
任务指令被认为是一种间接的监督资源其中有时包含一些肤浅且武断的规则。这些规则也被称为标记函数可以直接应用于注释(例如句子“a very fair price”是情感积极的因为“单词‘price’之前直接有‘fair’”)。因此现有的一些工作还将指令作为远程监督来执行数据或特征增强(Srivastava等人2018;Hancock等人2018;Ye等人2020)。例如Srivastava等人(2017)使用语义解析器将自然语言解释转换为逻辑形式并将它们应用于数据集中的所有实例以生成额外的二进制特征。而Wang et al.(2020)利用标签解释自动标注原始语料库并在产生的噪声数据上训练分类器。除了直接的扩充外Su等人(2022)进一步使用任务指令来丰富模型表示并实现了较强的跨任务泛化。具体来说他们在具有对比学习的不同指令数据集上训练了一个嵌入模型(单个编码器)然后使用该模型为下游未见过的任务生成基于指令的特定任务表示。
5.3 通用语言模型
根据通用人工智能(Artificial General Intelligence, AGI)的定义“通用模型”通常是一个能够胜任不同任务并在多变环境中可扩展的系统这将远远超出其创造者最初的预期(Wang and Goertzel, 2007;Goertzel写到,2014)。虽然特定于NLP领域但通用语言模型应该是一个优秀的多任务助手能够以完全零样本/少样本的方式熟练处理各种现实世界的NLP任务和不同的语言(Arivazhagan等人2019;Pratap等人2020;Wei等2022a)。由于许多现有工作证明了在跨任务泛化中使用指令的惊人能力(Wei等人2022a;Sanh等人2022;Mishra等人2022b;王等2022c;Chung等人2022除其他外)该指令很可能成为实现这一最终目标的突破。
值得注意的是最近指令的两个显著应用即InstructGPT (Ouyang et al. 2022)和ChatGPT也表明在构建通用语言模型方面迈出了一大步。然而与其他主要采用指令学习的工作不同ChatGPT还采用了一些其他组件如人工反馈的强化学习(RLHF) 14。虽然“哪个组件对ChatGPT的出色结果贡献更大”的答案仍然是模糊的需要进一步调研但我们介绍了一些最近的工作以强调指令学习的关键作用。例如Chung等人(2022)进行了广泛的实验来评估人类对PaLM的偏好对齐(Chowdhery等人2022)。他们发现即使没有任何人类反馈指令微调也显著降低了PaLM开放式世代的毒性比如性别和职业偏见。此外其他一些工作也单独采用创造性指导而不是人工反馈并取得了显著的跨任务结果(Bai等人2022;Honovich等人2022a;王志强等2022b)。尽管ChatGPT仍然存在许多不令人满意的方面距离通用语言模型还很远(Qin等人2023;郭等2023;Koco n等人2023;Wang et al. 2023)我们希望AGI的目标可以通过采用和发展更强大的技术来继续推动包括指令学习。