当前位置: 首页 > news >正文

个人网站备案名称填写企业为什么做平台网站

个人网站备案名称填写,企业为什么做平台网站,网站怎么做营销,乐清建设网站1 两种大语言模型#xff1a;GPT VS BERT 2 对于大语言模型的两种不同期待 2.1 “专才” 2.1.1 成为专才的好处 Is ChatGPT A Good Translator? A Preliminary Study 2023 Arxiv 箭头方向指的是从哪个方向往哪个方向翻译 表格里面的数值越大表示翻译的越好 可以发现专门做翻…1 两种大语言模型GPT VS BERT 2 对于大语言模型的两种不同期待 2.1 “专才” 2.1.1 成为专才的好处  Is ChatGPT A Good Translator? A Preliminary Study 2023 Arxiv 箭头方向指的是从哪个方向往哪个方向翻译 表格里面的数值越大表示翻译的越好 可以发现专门做翻译的工作会比ChatGPT好一些 How Good Are GPT Models at  Machine Translation? A  Comprehensive Evaluation 同样地专项翻译任务上ChatGPT不如一些专门做翻译的模型 2.1.2 使用方式 对于训练模型进行改造 bert的先天劣势就是他是句子填空而不是句子接龙所以希望他进行某一项任务需要对他进行额外的处理以及额外的参数微调finetune 2.1.2.1 加head 额外地对BERT进行一定的添加使其能够输出希望的结果 2.1.2.2 微调 Finetune 2.1.2.3 对训练模型做改造——加入Adapter 在语言模型里插入额外的模组语言模型的参数不动只更新adapter的参数  2.1.2.3.1 为什么需要Adapter 如果没有Adapter的话100个任务就需要存放100个大模型的参数 有了Adapter之后同样的100个任务我们只需要存一个大模型的参数和100个任务对应Adapter的参数即可。而一般Adapter的参数量比大模型少多了   2.2 “通才” 通过人类给模型下的指令prompt实现 2.2.1 成为通才的好处 2.2.2 In-context Learning 给大语言模型一个句子让他分析句子是正面的还是负面的   我们需要告诉模型我们要进行情感分析。怎么告诉呢 我们给大模型一些例子前面那些句子情感分析结果把那些例子串起来加上我们想要分析的句子一股脑喂给大模型让大模型输出是正面还是负面 2.2.2.1  大模型真的能从这些例子中学到信息 2.2.2.1.1 Rethinking the Role of Demonstrations: What Makes In-Context Learning Work? 2022 ARXIV 故意给模型输入一些错误的情感分析标注看模型的分析结果  No demo是没有范例橙色是给了正确的范例红色是给了一些错误的范例 ——可以发现正确率并没有下降很多 并没有从范例里学到很多有用的信息    那么故意给一些不在这个domain里面的无关的输入呢  这种将无关domain的信息加入的结果就是紫色部分可以看到如果是来自不同的domain的话效果会下降    所以这篇论文中in-context learning作用的猜测是“唤醒”模型  换句话说大语言模型本身就会情感分析in-context learning的作用是“唤醒”他让语言模型知道接下来做的任务是情感分析 这篇论文的另一个例子也佐证了这个观点我们提供的句子-情感结果对增加精度涨的不多如果是finetune的话精度会提升的很快     ——说明并不是靠in-context learning提供的这几个输入来学习情感分析。大语言模型本身就已经具备了情感分析的功能了 2.2.2.1.2 Larger language models do in-context learning differently 2023 arxiv 每一个图像中颜色越深的表示模型越大横轴表示in-context learning阶段提供给大模型的有多少比例的是错误的信息可以看到大模型受到错误范例的影响是很大的而小模型GPT3这里的小是相对的小受到错误范例的影响是不大 上一篇paper考虑的是较小的模型所以可能会觉得给了错误的范例影响不大同时我们可以看到在大模型中当in-context learning的错误率为100%全是相反的结果的时候大模型的正确率都是低于50%的说明他们确实从错误的资料中学到了一些知识 与此同时我们直接让大模型进行分类任务 我们在in-context learning阶段将input和output全部作为输入提供给大模型让大模型来进行分类任务    可以看到大模型确实学到了in-context learning中的信息   2.2.2.2 让模型学习 in-context learning [2110.15943] MetaICL: Learning to Learn In Context (arxiv.org)  前面的in-context learning都是没有finetune过程了这里相当于finetune了一下  用别的任务的in-context learning的范例、输入、输出进行微调 2.2.3 instruction tuninging  大语言模型还是需要进行一定的微调才能效果比较好这个微调的过程就是instruction-tuning 训练finetune的时候 给模型一些指令和对应的答案。测试的时候给finetune指令之外的其他指令。让模型自己给出合理的回应。 早期模型如Multitask Prompted Training Enables Zero-Shot Task Generalization就提出了一个T0模型来达成instruction-tuning的效果   [2109.01652] Finetuned Language Models Are Zero-Shot Learners (arxiv.org) FLAN也是一个早期做instruction tuning的work   首先收集大量的NLP任务和数据集   而由于instruction tuning是希望模型理解人类下的指令所以FLAN每一个NLP的任务想了十种不同的描述方式template    当测试任务是natrual language inference的时候finetune训练的时候就没有这个任务zero shot 是只有指令没有in-context learningfew-shot就是in-context learningFLAN就是进行instruction learning的结果   2.2.4 Chain of Thought [2201.11903] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (arxiv.org) 另一种更详细地给机器prompting的方法 如果是数学这种需要推理的问题直接给 in-context learning 往往效果若不好 而如果我们给范例的时候同时给推导过程答案。期望模型输出答案的时候也先输出推导再输出答案 这就叫Chain of Thought Prompting 从效果上来看加了CoT之后的效果更好 2.2.5 加一些prompting让CoT效果更好 [2205.11916] Large Language Models are Zero-Shot Reasoners (arxiv.org) 在进行CoT的时候范例输完了需要模型回答的问题说完了加一行’Lets think step by step可以获得更好的效果 Large Language Models Are Human-Level Prompt Engineers ICLR 2023 加的那一行文字不一样效果也不一样 2.2.6 CoTSelfconsistency [2203.11171] Self-Consistency Improves Chain of Thought Reasoning in Language Models (arxiv.org) 使用CoT让模型先输出推导过程再输出推导结果可能每次推导过程不一样 答案也不一样 这里让语言模型产生好几次推导和对应的结果出现最多次的答案就是正确答案当然也可以每个答案 用语言模型算一个几率信心分数权重 但这个权重论文中说没有什么帮助所以直接根据数量投票就好 2.2.7 强化学习找Prompt [2206.03931] Learning to Generate Prompts for Dialogue Generation through Reinforcement Learning (arxiv.org) 2.2.8 直接用LLM来找Prompt [2211.01910] Large Language Models Are Human-Level Prompt Engineers (arxiv.org)
http://www.hkea.cn/news/14538201/

相关文章:

  • 没有固定ip做网站网站优化建设哈尔滨
  • 网站建设与管理实践心得番禺网站建设wwiw
  • 企业网站如何做推广搜索引擎推广的特点
  • 营销型网站制作培训多少钱建设企业网站方法
  • 雅安做网站的公司笔记本网站开发背景
  • ui设计灵感网站怎样建公司网站
  • 定制建站公司jsp网站入门
  • asp企业网站网站开发工程师需要什么证书
  • 青岛网站建设华夏郑州公司网站建设哪家好
  • 深圳市建设局科技处网站太原网站维护
  • 网站登录页面做汽车团购网站有哪些
  • 永康建设网站潍坊网站空间
  • 网站建设注意哪些问题上海建设手机网站
  • 河南省和城乡建设厅网站首页做冠县梨园网站怎么做
  • 佛山专业网站建设公司做英文网站挂谷歌广告
  • 旅游网站开发实验报告wordpress 路径标签
  • 光速网络网站大型电子商务网站建设
  • 用vs做网页是怎么创建网站的国外精产品1688
  • 网站建设综合报告外包项目
  • wordpress 3.8.3 下载seo优化厂商
  • 宁波做公司网站的公司山西疾控最新通告今天
  • 系网站建设总结报告济南网站的建设
  • 怎么样自己创建网站设置网站默认编码
  • 网站首页策划怎么做顺德网站制作案例价位
  • 网站开发师培训要加强分院网站建设
  • 十大网站建设菠菜网站模板
  • 临海大经建设集团网站多层次网络营销合法吗
  • 网站设置默认主页做网站有没有免费空间
  • 域名只做邮箱没网站要备案吗flash网站下载
  • 徐州手机网站上海优秀网站设计