当前位置: 首页 > news >正文

知乎 网站建设wordpress 赞 插件

知乎 网站建设,wordpress 赞 插件,网页版传奇制作教程,wordpress v5.2.2安装一、背景 1、机器翻译中#xff0c;每个生成的词可能相关于源句子中不同的词#xff0c;但是之前用的是最后一个RNN层出来的context。 2、加入注意力 #xff08;1#xff09;假设输入序列中有#x1d447;个词元#xff0c; 解码时间步#x1d461;′的上下文变量是…一、背景 1、机器翻译中每个生成的词可能相关于源句子中不同的词但是之前用的是最后一个RNN层出来的context。 2、加入注意力 1假设输入序列中有个词元 解码时间步′的上下文变量是注意力集中的输出 时间步′−1时的解码器隐状态_′−1是查询 编码器隐状态ℎ_既是键也是值 注意力权重是使用加性注意力打分函数计算的 2Bahdanau注意力的架构 a、要预测下一个词的时候将当前预测出的词作为query编码器各个状态作为(key,value)进行attention来找到对预测下一个词有用的原文 b、编码器对每次词的输出作为key和value一样的 c、解码器RNN对上一词的输出是query d、注意力的输出和下一词的词嵌入合并进入 二、定义注意力解码器 1、对于Seqseq只需要重新定义解码器 #save class AttentionDecoder(d2l.Decoder):带有注意力机制解码器的基本接口def __init__(self, **kwargs):super(AttentionDecoder, self).__init__(**kwargs)propertydef attention_weights(self):raise NotImplementedError 2、初始化解码器的状态需要下面的输入 1编码器在所有时间步的最终层隐状态将作为注意力的键和值 2上一时间步的编码器全层隐状态将作为初始化解码器的隐状态 3编码器有效长度排除在注意力池中填充词元。 class Seq2SeqAttentionDecoder(AttentionDecoder):def __init__(self, vocab_size, embed_size, num_hiddens, num_layers,dropout0, **kwargs):super(Seq2SeqAttentionDecoder, self).__init__(**kwargs)self.attention d2l.AdditiveAttention(num_hiddens, num_hiddens, num_hiddens, dropout)self.embedding nn.Embedding(vocab_size, embed_size)self.rnn nn.GRU(embed_size num_hiddens, num_hiddens, num_layers,dropoutdropout)self.dense nn.Linear(num_hiddens, vocab_size)def init_state(self, enc_outputs, enc_valid_lens, *args):# outputs的形状为(batch_sizenum_stepsnum_hiddens).# hidden_state的形状为(num_layersbatch_sizenum_hiddens)outputs, hidden_state enc_outputsreturn (outputs.permute(1, 0, 2), hidden_state, enc_valid_lens)def forward(self, X, state):# enc_outputs的形状为(batch_size,num_steps,num_hiddens).# hidden_state的形状为(num_layers,batch_size,# num_hiddens)enc_outputs, hidden_state, enc_valid_lens state# 输出X的形状为(num_steps,batch_size,embed_size)X self.embedding(X).permute(1, 0, 2)outputs, self._attention_weights [], []for x in X:# query的形状为(batch_size,1,num_hiddens)加一维是为了调用可加性注意力函数的接口query torch.unsqueeze(hidden_state[-1], dim1)# context的形状为(batch_size,1,num_hiddens)context self.attention(query, enc_outputs, enc_outputs, enc_valid_lens)# 在特征维度上连结x torch.cat((context, torch.unsqueeze(x, dim1)), dim-1)# 将x变形为(1,batch_size,embed_sizenum_hiddens)out, hidden_state self.rnn(x.permute(1, 0, 2), hidden_state)outputs.append(out)self._attention_weights.append(self.attention.attention_weights)# 全连接层变换后outputs的形状为# (num_steps,batch_size,vocab_size)outputs self.dense(torch.cat(outputs, dim0))return outputs.permute(1, 0, 2), [enc_outputs, hidden_state,enc_valid_lens]propertydef attention_weights(self):return self._attention_weights 二、总结 1、在预测词元时如果不是所有输入词元都是相关的那么具有Bahdanau注意力的循环神经网络编码器-解码器会有选择地统计输入序列的不同部分。这是通过将上下文变量视为加性注意力池化的输出来实现的。 2、在循环神经网络编码器-解码器中Bahdanau注意力将上一时间步的解码器隐状态视为查询在所有时间步的编码器隐状态同时视为键和值。
http://www.hkea.cn/news/14383969/

相关文章:

  • wordpress网页加速中山seo技术
  • 适合大学生创业的网站建设类型虚拟搭建wordpress
  • 网站优化具体怎么做网店推广新技术是哪些
  • 做网站和推广工资多少钱青岛网站建设运营
  • 网站正在维护中 模板建筑培训网成绩查询
  • 外贸一般在哪些网站阿里云服务器租用价格表
  • 怎么进入官方网站查询企业做网站的费用怎么入账
  • 如何做一份网站的数据分析最佳搜索引擎磁力狗
  • 建设电子商务网站需要什么学生网站建设总结报告
  • 微商城系统开发商站长工具seo综合查询黄
  • 北京代理网站备案体育网站界面该怎样做
  • 网站怎么做收入怎么样注册网站
  • 网站建设不完整什么意思石家庄网站开发费用
  • 网站运营是做啥的wordpress 4.2.2
  • 杭州服装网站建设最新不封网址拿走不谢
  • 申诉网站风险门户网站开发框架
  • 房产中介网站模板国家住房部和城乡建设部 网站首页
  • 政务网站建设规范商业店铺设计
  • 佛山中小企业网站建设承接网站开发
  • 软件做网站 编程自己写网页制作素材网有哪些
  • 如何设置网站图标网站模板下载带后台
  • php手机网站模板在360怎么做网站
  • 电子商务网站平台有哪些wordpress多站模式
  • 凡客网站建设app拉新推广赚佣金
  • 网站模板的功能微信店铺
  • 政和网站建设网易免费企业邮箱注册申请
  • 陕西住房建设厅官方网站系统开发的一般过程
  • 北京海淀社保网站网页设计与网站建设完全实用手册
  • 杭州哪家做外贸网站好已有域名如何在花生壳网站做二级域名托管
  • 做企业评价的有哪些网站平台搭建是什么