当前位置: 首页 > news >正文

企业手机端网站源码下载生活服务网站开发

企业手机端网站源码下载,生活服务网站开发,偃师网络营销的概念,wordpress 文章表情SpellBERT: A Lightweight Pretrained Model for Chinese Spelling Check(EMNLP2021) 一.概述 作者认为许多模型利用预定义的混淆集来学习正确字符与其视觉上相似或语音上相似的误用字符之间的映射#xff0c;但映射可能是域外的。为此#xff0c;我们提出了SpellBERT…SpellBERT: A Lightweight Pretrained Model for Chinese Spelling Check(EMNLP2021) 一.概述 作者认为许多模型利用预定义的混淆集来学习正确字符与其视觉上相似或语音上相似的误用字符之间的映射但映射可能是域外的。为此我们提出了SpellBERT一个基于图的额外特征和独立于混淆集的预训练模型。为了明确地捕捉这两种错误模式(音似和形似如下图)我们使用了一个图神经网络来引入词根和拼音信息作为视觉和语音特征。为了更好地将这些特征与字符表示融合我们设计了类似于预训练任务的掩码语言模型(masked language model)。SpellBert只有Bert一半大小。 本文利用汉字字根特征和拼音特征然后通过关系图卷积网络融合这2个特征。SpellBERT在训练和推理阶段是独立于混淆集的。在只有BERT一半大小的情况下SpellBERT可以很好地表现出竞争力和泛化性。 二.方法概述 本文将CSC(Chinese Spelling Check)任务作为序列标注问题。如上图框架主要由3个部分组成Bert编码器特征融合模块以及一个预训练组件。 1.基于MLM backbone 这里利用Bert作为backbone。每个输入的字符xi通过bert-embedding层获得embedding表示ei。然后ei输入到bert-encoder层获得表示hi 2.融合视觉与语音特征(Fusing Visual and Phonetic Features) 为了建这两种错误模式通过结合词根和拼音信息为汉字表示ei注入视觉和语音特征。我们使用关系图卷积网络(简称R-GCN)将多种类型的特征填充到公式(1)中的字符表示ei中。我们把字符看作节点输入序列X可以自然地组织成一个线形图。词根和拼音都被看作是图的节点。如果一个词根或拼音属于某个字符我们将它们之间的连接构建为边。我们认为这些连接是不同的这取决于它们之间的节点对。此外由于局部上下文信息有利于更好地融合拼音和词根特征我们在相邻字符之间构造边。为此边的构建如下 A.字符和根号之间的一条边 B.字符和拼音之间的一条边 C.在固定长度上下文中字符和相邻字符之间的一条边 D.字符与自身之间的一条边我们通过公式(1)中的字符嵌入embedding ei来初始化字符节点的特征。为了表示和更新字根节点和拼音节点的特征我们还构造了一个额外的嵌入表该嵌入表通过平均它们最相关的字符嵌入来初始化。这些特征在关系图上扩散如下: hi表示每个字符的最终表示。 3.增强CSC预训练任务(Enhanced Pretraining Tasks for CSC) 考虑到字根特征和拼音特征是通过设计外部添加的我们又设计了字根预测和拼音预测两个相似的预训练任务。在字根和拼音预测中我们随机屏蔽字符到字根和拼音的连接然后预测被屏蔽的连接。通过重构连接模型可以学习到更好的表示该表示不仅包含上下文信息还包含视觉和语音信息。 和MLM一样我们随机选择15%的字符进行处理。如果选择了一个字符处理如下 A.10%的时间保持不变。然后预测汉字本身、它的字根和拼音。这是为了配合下游微调每个字符都可以直接看到它的所有字根和拼音。 B.60%的时间将其替换为[MASK]并以80%的概率屏蔽其所有连接。然后预测被mased的字符和被masked的连接。 C.30%的时间用困惑集中的字符替换并以80%的概率屏蔽其所有连接。然后预测原字符及其连接。这是为了迫使我们的模型根据错误的字根和拼音来纠正字符。注意我们只在这个阶段利用混淆集来构造拼写错误。在我们的graph中边没有表示graph只在bert-embedding嵌入层和bert-encoder编码器层之间使用。因此我们将边预测任务转化为token分类任务。对于每个字符xi我们取其拼音和字根作为真值并对不属于该字符的其他拼音和字根进行负采样。我们使用这些拼音和字根的特征嵌入作为分类层来计算它们与来自公式(2)中bert编码器层hi的相似度。相关的嵌入将彼此拉近而不相关的嵌入将彼此拉开。 4.减少参数(Reducing Parameters) 我们只使用4层BERT来初始化预训练和微调我们的模型这将参数总数从110M减少到55M。 5.设置 预训练Bert为4层句子长度128学习训练法5e-5batchsize是1024预训练10k步。
http://www.hkea.cn/news/14535962/

相关文章:

  • 江西建设门户网站网站开发常见技术问题
  • 建设银行怎么从网站上改手机号码买链接
  • 小学校园网站建设简介wordpress 新建模板文件夹
  • 网站建设服务ysaigo企业网站管理系统最新4湖南岚鸿牛x1 0
  • jsp网站连接数据库wordpress大学主题安装
  • 自己可以免费做网站吗不做网站做百家号
  • 做网站游戏推广赚钱吗农业网站设计
  • 织梦网站修改首页图片谷歌seo和百度seo区别
  • 网站开发工作总结论文app注册推广任务平台
  • 上海网站建设建站织梦网站站标
  • 威海营销型网站建设陕西住房城乡建设厅网站
  • 在百度上建网站做网站配置服务器
  • 上海网站推广很好上海电信网站备案
  • 动漫网站建设前期策划成都网站开发公司哪家好
  • 网站模板套餐做网站本溪
  • 成都网站推广公司小羚羊网站怎么建设
  • 中山蓝图科技网站建设芜湖做网站建设公司
  • 网站建设 招聘粤健康app下载
  • 长春企业网站设计贵州百度竞价网页设计
  • asp网站图片万网做网站给网站源码
  • 公司付网站会员费科目怎么做私募基金网站建设要求
  • 银川网站建设效果最新做做网站
  • 外贸网站建设 佛山做片头 网站
  • 网站怎么做外链接地址自己制作游戏的软件
  • jsp网站开发工资域名访问网站下
  • 在哪可以建一个网站网站建设感悟
  • 个人备案网站可以做商城展示开发公司网站
  • 电子商务网站建设与管理笔试设计公司介绍模板
  • 湘icp备 网站建设 农业 湖南wordpress邮箱验证失败
  • 为什么百度没有收录我的网站完全免费建站系统