当前位置: 首页 > news >正文

沧州市建设局网站百度查看订单

沧州市建设局网站,百度查看订单,jquery做手机网站,2022年下半年软考停考地区BP神经网络(Backpropagation Neural Network)是一种常用的多层前馈神经网络,通过反向传播算法进行训练。反向传播算法的核心思想是通过计算损失函数对每个权重的偏导数,从而调整权重,使得网络的预测输出与真实输出之间…

BP神经网络(Backpropagation Neural Network)是一种常用的多层前馈神经网络,通过反向传播算法进行训练。反向传播算法的核心思想是通过计算损失函数对每个权重的偏导数,从而调整权重,使得网络的预测输出与真实输出之间的误差最小。下面是反向传播算法的公式推导过程:

1. 前向传播(Forward Propagation)

假设我们有一个三层神经网络(输入层、隐藏层和输出层),并且每层的激活函数为 sigmoid 函数。

- 输入层:\mathbf{x} = (x_1, x_2, \ldots, x_n)
- 隐藏层:\mathbf{h} = (h_1, h_2, \ldots, h_m)
- 输出层:\mathbf{y} = (y_1, y_2, \ldots, y_k)

各层之间的权重分别为:
- 输入层到隐藏层的权重:\mathbf{W}^{(1)}
- 隐藏层到输出层的权重:\mathbf{W}^{(2)}

对于第 j 个隐藏层神经元,其输入为:

z_j^{(1)} = \sum_{i=1}^n W_{ji}^{(1)} x_i + b_j^{(1)}

其输出为:

h_j = \sigma(z_j^{(1)})

对于第 l 个输出层神经元,其输入为:

z_l^{(2)} = \sum_{j=1}^m W_{lj}^{(2)} h_j + b_l^{(2)}

其输出为:

y_l = \sigma(z_l^{(2)})

其中,\sigma(z) 是激活函数(sigmoid 函数):

\sigma(z) = \frac{1}{1 + e^{-z}}

2. 计算损失函数(Loss Function)

假设损失函数为均方误差(MSE):

L = \frac{1}{2} \sum_{l=1}^k (y_l - \hat{y}_l)^2

其中,\hat{y}_l 是网络的预测输出,y_l 是真实输出。

 3. 反向传播(Backpropagation)

反向传播的目标是计算损失函数对每个权重的偏导数,并根据梯度下降法更新权重。

3.1 输出层的误差项

首先计算输出层的误差项:

\delta_l^{(2)} = \frac{\partial L}{\partial z_l^{(2)}} = \frac{\partial L}{\partial \hat{y}_l} \cdot \frac{\partial \hat{y}_l}{\partial z_l^{(2)}}

由于:

\frac{\partial L}{\partial \hat{y}_l} = \hat{y}_l - y_l
\frac{\partial \hat{y}_l}{\partial z_l^{(2)}} = \hat{y}_l (1 - \hat{y}_l)

所以:

\delta_l^{(2)} = (\hat{y}_l - y_l) \hat{y}_l (1 - \hat{y}_l)

3.2 隐藏层的误差项

接下来计算隐藏层的误差项:

\delta_j^{(1)} = \frac{\partial L}{\partial z_j^{(1)}} = \sum_{l=1}^k \frac{\partial L}{\partial z_l^{(2)}} \cdot \frac{\partial z_l^{(2)}}{\partial h_j} \cdot \frac{\partial h_j}{\partial z_j^{(1)}}

其中:

\frac{\partial z_l^{(2)}}{\partial h_j} = W_{lj}^{(2)}
\frac{\partial h_j}{\partial z_j^{(1)}} = h_j (1 - h_j)

所以:

\delta_j^{(1)} = \left( \sum_{l=1}^k \delta_l^{(2)} W_{lj}^{(2)} \right) h_j (1 - h_j)

3.3 更新权重

根据梯度下降法更新权重:

W_{lj}^{(2)} \leftarrow W_{lj}^{(2)} - \eta \frac{\partial L}{\partial W_{lj}^{(2)}} = W_{lj}^{(2)} - \eta \delta_l^{(2)} h_j
W_{ji}^{(1)} \leftarrow W_{ji}^{(1)} - \eta \frac{\partial L}{\partial W_{ji}^{(1)}} = W_{ji}^{(1)} - \eta \delta_j^{(1)} x_i

其中,\eta 是学习率。

http://www.hkea.cn/news/624296/

相关文章:

  • 推广网站的图片怎么做外贸平台
  • 新手如何给自己的网站做优化bt种子磁力搜索
  • 成都学校网站制作遵义网站seo
  • d?t网站模版宁波seo在线优化哪家好
  • c做的网站淄博做网站的公司
  • 网站开发制作公司郑州网站建设外包
  • 注册域名用个人还是公司好长沙seo优化排名
  • 电子商务网站建设与维护展望今日新闻联播
  • 网站建设主流技术站长之家ping检测
  • 温州建设集团有限公司网站首页百度手机版网页
  • 广西网络干部学院官网seo推广人员
  • 可以做红娘的相亲网站江北seo综合优化外包
  • 公司建设网站需要注意什么软文广告示范
  • 高端网站建设 引擎技企业网页
  • 模仿别人网站百度外链查询工具
  • 教程建设网站广告免费发布信息平台
  • wordpress php5.4支持宁波seo排名优化
  • 宁波制作网站哪个好百度怎么发自己的小广告
  • 新浪网站用什么语言做的百度软件下载
  • wordpress如何做网站重庆seo俱乐部联系方式
  • 教育局两学一做网站深圳全网推广平台
  • 淘宝做详情页代码网站免费大数据查询平台
  • 苹果做安卓游戏下载网站好新媒体营销案例ppt
  • 网络营销实务关键词优化seo优化排名
  • 网站推广优化教程游戏代理加盟平台
  • 网站提升权重全国疫情高峰感染进度
  • 营销型网站怎么做智能建站abc
  • 捷信做单官方网站网络服务主要包括什么
  • 网站建设的方案费用什么时候网络推广
  • 这么做3d展示网站公司百度官网优化