当前位置: 首页 > news >正文

百度抓取网站图片可以做网站的语言

百度抓取网站图片,可以做网站的语言,wordpress淘客单页主题,微信如何修改wordpress1️⃣ GRU介绍 前面介绍的LSTM可以有效缓解RNN的梯度消失问题#xff0c;但是其内部结构比较复杂#xff0c;因此衍生出了更加简化的GRU。GRU把输入门和遗忘门整合成一个更新门#xff0c;并且合并了细胞状态和隐藏状态。于2014年被提出 2️⃣ 原理介绍 GRU的结构和最简单…1️⃣ GRU介绍 前面介绍的LSTM可以有效缓解RNN的梯度消失问题但是其内部结构比较复杂因此衍生出了更加简化的GRU。GRU把输入门和遗忘门整合成一个更新门并且合并了细胞状态和隐藏状态。于2014年被提出 2️⃣ 原理介绍 GRU的结构和最简单的RNN是一样的。当前输入为 x t x_t xt​上一个节点传递下来的隐层状态为 h t − 1 h_{t-1} ht−1​这个隐层状态包含了之前节点的相关信息。根据 x t x_t xt​和 h t − 1 h_{t-1} ht−1​GRU会得到当前时间步的输出 y t y_t yt​和传递给下一个节点的隐层状态 h t h_t ht​实际上 y t y_t yt​就是等于 h t h_t ht​ 下面介绍详细的原理下图展示了GRU的详细结构 第一步计算重置门它的参数是 W r W_r Wr​用于控制之前的记忆需要保留多少。该门的输入是前一个隐层状态 h t − 1 h_{t-1} ht−1​以及当前时间步的输入 x t x_t xt​输出为 r t r_t rt​在0到1之间 r t σ ( W r ⋅ [ h t − 1 , x t ] ) r_{t}\sigma\left(W_{r}\cdot[h_{t-1},x_{t}]\right) rt​σ(Wr​⋅[ht−1​,xt​])其中 σ \sigma σ表示sigmoid激活函数 第二步我们来看更新门它的参数为 W z W_z Wz​它将LSTM中的输入门和遗忘门结合决定当前时间步应该保留多少以前的记忆多少新信息应该加入。该门的输入也是前一个隐层状态 h t − 1 h_{t-1} ht−1​以及当前时间步的输入 x t x_t xt​省略了偏置参数 b b b输出为 z t 在 0 到 1 之间 z_t在0到1之间 zt​在0到1之间公式具体表达为 z t σ ( W z ⋅ [ h t − 1 , x t ] ) z_{t}\sigma\left(W_{z}\cdot[h_{t-1},x_{t}]\right) zt​σ(Wz​⋅[ht−1​,xt​])其中 σ \sigma σ表示sigmoid激活函数 第三步计算输入值输入值由前一个隐层状态 h t − 1 h_{t-1} ht−1​当前的 x t x_t xt​以及重置门 r t r_t rt​得到。 r t ∗ h t − 1 r_{t}*h_{t-1} rt​∗ht−1​可以理解为之前的记忆保留多少来学习新的内容 x t x_t xt​ h ~ t \tilde{h}_{t} h~t​相当于利用之前的记忆对新的内容理解的部分 h ~ t tanh ⁡ ( W ⋅ [ r t ∗ h t − 1 , x t ] ) \tilde{h}_{t}\operatorname{tanh}\left(W\cdot[r_{t}*h_{t-1},x_{t}]\right) h~t​tanh(W⋅[rt​∗ht−1​,xt​]) 第四步计算当前输出 h t h_t ht​由两部分一部分是之前信息的影响 h t − 1 h_{t-1} ht−1​后一部分是当前输入的影响 h ~ t \tilde{h}_t h~t​。 z t z_{t} zt​是更新门的输出取值在0-1之间。给 h t − 1 h_{t-1} ht−1​赋予 ( 1 − z t ) (1-z_t) (1−zt​)权重给 h ~ t \tilde{h}_t h~t​赋予 z t z_{t} zt​权重 h t ( 1 − z t ) ∗ h t − 1 z t ∗ h ~ t \begin{aligned}h_t(1-z_t)*h_{t-1}z_t*\tilde{h}_t\end{aligned} ht​(1−zt​)∗ht−1​zt​∗h~t​​ 我前面写的这篇文章中介绍了为什么RNN会有梯度消失和爆炸点这里查看 主要原因是反向传播时梯度中有这一部分 ∏ j k 1 3 ∂ s j ∂ s j − 1 ∏ j k 1 3 t a n h ′ W \prod_{jk1}^3\frac{\partial s_j}{\partial s_{j-1}}\prod_{jk1}^3tanh^{}W jk1∏3​∂sj−1​∂sj​​jk1∏3​tanh′W 那么GRU如何缓解RNN的梯度消失问题呢 在GRU里隐层的输出换了个符号从 s s s变成 h h h了。因此我们来分析一下 ∂ h t ∂ h t − 1 \frac{\partial h_t}{\partial h_{t-1}} ∂ht−1​∂ht​​。 我们可以得到 ∂ h t ∂ h t − 1 ( 1 − z t ) … \frac{\partial h_t}{\partial h_{t-1}}(1-z_t)\ldots ∂ht−1​∂ht​​(1−zt​)… 因此我们可以通过控制更新门的输出 z t z_t zt​来控制梯度以缓解梯度消失问题 3️⃣ 总结 GRU和LSTM对比 GRU通过控制更新门的输出 z t z_t zt​来控制梯度以缓解梯度消失问题 4️⃣ 参考 Pytorch_LSTM与GRU白话机器学习-从RNN、LSTM到GRU
http://www.hkea.cn/news/14306934/

相关文章:

  • 网站开发工程师月薪平均内蒙古seo
  • 网页设计规划seo对网店推广的作用有哪些
  • 盐城网站优化公司wordpress 加载数据库表格也卖弄
  • 网站维护工单高德地图导航下载
  • 免费网站排名优化在线在线域名查询
  • 响应式网站展示型wordpress加载ajax
  • 莱州做网站汕头建设银行电话
  • 给了几张图让做网站国外网站 icp备案
  • 个人站点的制作威海网站开发网络公司
  • 北京的电商平台网站网页设计制作网站html代码大全
  • 为了同学都能访问网站如何做网络营销方式哪些
  • 网站建设的实施制作阶段包括专业网站制作流程
  • 广州做网络服装的网站建设漳州seo建站
  • 钟表商城网站建设方案wordpress创建配置文件
  • 正黄集团博弘建设官方网站昆明百度网站建设
  • 站长平台社区wordpress 严重 漏洞
  • 介绍网站设计风格网站运营目的
  • 建设网站选题应遵循的规则咋样做网站视频
  • 开发网站用什么语言好wordpress拷站
  • 电子商务网站网络拓扑图增加浏览量的软件
  • 郑州 网站建设有限公司WordPress调用json数据
  • wordpress 浏览量排序seo系统
  • 天津市建设教育培训中心网站网站关键词和描述
  • 专注吴中网站建设推广怎么制作公众号视频
  • 网站建设需要用什么书怎么可以做网站的网站
  • 如何做双语网站上海松江做网站公司
  • 怎么把自己做的网站放到百度上做行业网站赚钱
  • 旅游网站设计源码包装设计专业是学什么的
  • 绍兴做网站公司市场营销策划公司
  • 外贸网站 wordpress百度搜索指数排名