当前位置: 首页 > news >正文

通付盾 建设网站wordpress上传sh文件

通付盾 建设网站,wordpress上传sh文件,社区服务流程的文献,全球建筑设计公司排名将多层循环神经网络堆叠在一起#xff0c;通过对几个简单层的组合#xff0c;产生一个灵活的机制。其中的数据可能与不同层的堆叠有关。 9.3.1 函数依赖关系 将深度架构中的函数依赖关系形式化#xff0c;第 l l l 个隐藏层的隐状态表达式为#xff1a; H t ( l ) ϕ l …将多层循环神经网络堆叠在一起通过对几个简单层的组合产生一个灵活的机制。其中的数据可能与不同层的堆叠有关。 9.3.1 函数依赖关系 将深度架构中的函数依赖关系形式化第 l l l 个隐藏层的隐状态表达式为 H t ( l ) ϕ l ( H t ( l − 1 ) W x h ( l ) H t − 1 ( l ) W h h ( l ) b h ( l ) ) \boldsymbol{H}^{(l)}_t\phi_l(\boldsymbol{H}^{(l-1)}_t\boldsymbol{W}^{(l)}_{xh}\boldsymbol{H}^{(l)}_{t-1}\boldsymbol{W}^{(l)}_{hh}\boldsymbol{b}^{(l)}_h) Ht(l)​ϕl​(Ht(l−1)​Wxh(l)​Ht−1(l)​Whh(l)​bh(l)​) 参数字典 ϕ l \phi_l ϕl​ 表示第 l l l 个隐藏层的激活函数 X t ∈ R n × d \boldsymbol{X}_t\in\R^{n\times d} Xt​∈Rn×d 表示小批量输入 n n n 表示样本个数 d d d 表示输入个数 H t ( l ) ∈ R n × h \boldsymbol{H}^{(l)}_{t}\in\R^{n\times h} Ht(l)​∈Rn×h 表示 l t h l^{th} lth 隐藏层 ( l 1 , … , L ) (l1,\dots,L) (l1,…,L) 的隐状态 h h h 表示隐藏单元个数 设置 H t ( 0 ) X t \boldsymbol{H}^{(0)}_{t}\boldsymbol{X}_{t} Ht(0)​Xt​ O t ∈ R n × q \boldsymbol{O}_{t}\in\R^{n\times q} Ot​∈Rn×q 表示输出层变量 q q q 表示输出数 W x h ( l ) , W h h ( l ) ∈ R h × h \boldsymbol{W}^{(l)}_{xh},\boldsymbol{W}^{(l)}_{hh}\in\R^{h\times h} Wxh(l)​,Whh(l)​∈Rh×h 表示第 l l l 个隐藏层的权重参数 b h ( l ) ∈ R 1 × h \boldsymbol{b}^{(l)}_h\in\R^{1\times h} bh(l)​∈R1×h 表示第 l l l 个隐藏层的偏重参数 最后输出层的计算仅基于第 l l l 个隐藏层最终的隐状态 O t H t L W h q b q \boldsymbol{O}_t\boldsymbol{H}^{L}_t\boldsymbol{W}_{hq}\boldsymbol{b}_q Ot​HtL​Whq​bq​ 其中 W h q ∈ R h × q \boldsymbol{W}_{hq}\in\R^{h\times q} Whq​∈Rh×q 和 b q ∈ R 1 × q \boldsymbol{b}_q\in\R^{1\times q} bq​∈R1×q 表示输出层的模型参数 9.3.2 简洁实现 手撸多层循环神经网络有点过于麻烦了在此仅简单实现。 import torch from torch import nn from d2l import torch as d2lbatch_size, num_steps 32, 35 train_iter, vocab d2l.load_data_time_machine(batch_size, num_steps)vocab_size, num_hiddens, num_layers len(vocab), 256, 2 # 用 num_layers 来设定隐藏层数 num_inputs vocab_size device d2l.try_gpu() lstm_layer nn.LSTM(num_inputs, num_hiddens, num_layers) model d2l.RNNModel(lstm_layer, len(vocab)) model model.to(device)9.3.3 训练与预测 num_epochs, lr 500, 2 d2l.train_ch8(model, train_iter, vocab, lr*1.0, num_epochs, device) # 多了一层后训练速度大幅下降perplexity 1.0, 116173.5 tokens/sec on cuda:0 time travelleryou can show black is white by argument said filby travelleryou can show black is white by argument said filby练习 1基于我们在 8.5 节中讨论的单层实现尝试从零开始实现两层循环神经网络。 batch_size, num_steps 32, 35 train_iter, vocab d2l.load_data_time_machine(batch_size, num_steps)def get_params_bilayer(vocab_size, num_hiddens, device):num_inputs num_outputs vocab_sizedef normal(shape):return torch.randn(sizeshape, devicedevice) * 0.01# 隐藏层1参数W_xh1 normal((num_inputs, num_hiddens))W_hh1 normal((num_hiddens, num_hiddens))b_h1 torch.zeros(num_hiddens, devicedevice)# 新增隐藏层2参数W_hh2 normal((num_hiddens, num_hiddens))b_h2 torch.zeros(num_hiddens, devicedevice)# 输出层参数W_hq normal((num_hiddens, num_outputs))b_q torch.zeros(num_outputs, devicedevice)# 附加梯度params [W_xh1, W_hh1, b_h1, W_hh2, b_h2, W_hq, b_q]for param in params:param.requires_grad_(True)return paramsdef init_rnn_state_bilayer(batch_size, num_hiddens, device):return (torch.zeros((batch_size, num_hiddens), devicedevice),torch.zeros((batch_size, num_hiddens), devicedevice)) # 新增第二个隐状态初始化张量def rnn_bilayer(inputs, state, params): # inputs的形状(时间步数量批量大小词表大小)W_xh1, W_hh1, b_h1, W_hh2, b_h2, W_hq, b_q params # 新增第二层参数H1, H2 stateoutputs []for X in inputs: # X的形状(批量大小词表大小) 前面转置是为了这里遍历H1 torch.tanh(torch.mm(X, W_xh1) torch.mm(H1, W_hh1) b_h1) # 计算隐状态1H2 torch.tanh(torch.mm(H1, W_hh2) b_h2) # 计算隐状态2Y torch.mm(H2, W_hq) b_q # 计算输出outputs.append(Y)return torch.cat(outputs, dim0), (H1, H2) # 沿时间步拼接num_hiddens 512 net_rnn_bilayer d2l.RNNModelScratch(len(vocab), num_hiddens, d2l.try_gpu(), get_params_bilayer,init_rnn_state_bilayer, rnn_bilayer) num_epochs, lr 500, 1 d2l.train_ch8(net_rnn_bilayer, train_iter, vocab, lr, num_epochs, d2l.try_gpu())perplexity 1.0, 63514.3 tokens/sec on cuda:0 time travelleryou can show black is white by argument said filby travelleryou can show black is white by argument said filby2在本节训练模型中比较使用门控循环单元替换长短期记忆网络后模型的精确度和训练速度。 vocab_size, num_hiddens, num_layers len(vocab), 256, 2 # 用 num_layers 来设定隐藏层数 num_inputs vocab_size device d2l.try_gpu() # lstm_layer nn.LSTM(num_inputs, num_hiddens, num_layers) # model d2l.RNNModel(lstm_layer, len(vocab)) gru_layer nn.GRU(num_inputs, num_hiddens) model_gru d2l.RNNModel(gru_layer, len(vocab)) model_gru model_gru.to(device)num_epochs, lr 500, 2 d2l.train_ch8(model_gru, train_iter, vocab, lr*1.0, num_epochs, device) # 换 gru 后更快了perplexity 1.0, 230590.6 tokens/sec on cuda:0 time traveller for so it will be convenient to speak of himwas e travelleryou can show black is white by argument said filby3如果增加训练数据能够将困惑度降到多低 已经是 1 了没得降了。 4在为文本建模时是否可以将不同作者的源数据合并有何优劣呢 不同作者的数据源之间可能没有什么关系拼在一起可能效果反而下降。
http://www.hkea.cn/news/14337751/

相关文章:

  • 哈尔滨网站设计有哪些步骤南昌县网页设计
  • 上海建科建设监理网站wordpress查询标签
  • 浙江建筑网站成立公司需要多少注册资金
  • 做淘宝客网站制作教程视频唐山企业做网站
  • 开家做网站公司有哪些网页制作怎么学
  • 网站怎么放到服务器上wordpress 汽车模板
  • 天津品牌网站建设好处网络推广最好的网站有哪些
  • 济南集团网站建设费用物流公司名字
  • 汉阳做网站石狮外贸网站建设公司报价
  • 中英版网站系统韩国网站never
  • 怎样创建个人网站炫酷的网站开发
  • 深圳网站域名注册一些好玩的网站
  • 绵阳top唯艺网站建设深圳招聘网站开发
  • 徐州哪家做网站好手机网站推荐大全
  • 广州网站设计成功刻湖北建设厅网站首页
  • 做推广最好的网站是哪个?网站一般要设计几页
  • 电子商务网站系统详细设计的内容网站建设进程方案
  • 成都网站seo技术网站功能分析
  • wordpress小说下载站昆明建设网站哪家好
  • 郑州专业做网站企业设计门户网
  • wordpress新建网站广告设计要学哪些软件
  • 网站导航网站可以做吗百度搜索关键词指数
  • 国内网站开发 框架褚明宇wordpress
  • 自学网站平面设计做软件赚钱吗
  • 站长之家seo一点询现在做网络推广好做吗
  • 专门做狗猫配套网站有什么意思做复刻手表的网站
  • php网站说明gta5房产网站在建设
  • 网站设计公司成都免费素材哪里找
  • 网站开发需要几个人搬家网站模板
  • html5导航网站宣传片制作费用