当前位置: 首页 > news >正文

网站引擎友好性分析j2ee 建设简单网站

网站引擎友好性分析,j2ee 建设简单网站,建设工程合同备案在什么网站上,网站建设的功能需求分析#x1f308; 个人主页#xff1a;十二月的猫-CSDN博客 #x1f525; 系列专栏#xff1a; #x1f3c0;深度学习_十二月的猫的博客-CSDN博客 #x1f4aa;#x1f3fb; 十二月的寒冬阻挡不了春天的脚步#xff0c;十二点的黑夜遮蔽不住黎明的曙光 目录 1. 前言 2. … 个人主页十二月的猫-CSDN博客  系列专栏 深度学习_十二月的猫的博客-CSDN博客  十二月的寒冬阻挡不了春天的脚步十二点的黑夜遮蔽不住黎明的曙光  目录 1. 前言 2. 多元分类 2.1 softmax函数 2.2 Softmax函数对比Sigmoid函数 3. 反向传播 3.1 反向传播与神经网络 3.2 总体观 3.3 逐级观数学推理仅仅想会使用不需要理解 3.4 反向传播思想总结 4. 梯度反向传播的完整例子 Step1前向传播 Step2反向传播 Step3梯度下降 5. 总结 1. 前言 进入这篇文章之前想必大家已经阅读过前面的系列文章【通俗易懂说模型】线性回归附深度学习、机器学习发展史-CSDN博客 【通俗易懂说模型】非线性回归和逻辑回归附神经网络图详细解释-CSDN博客 通过前面的文章 猫猫希望友友们对机器学习、深度学习等基础概念以及发展历史有一个宏观的理解。同时对回归线性、非线性、逻辑回归有一个深入的认识。然后接下来就让我们收拾收拾行囊准备出发下一站——多元分类、反向传播~ 网络上有很多关于反向传播的文章但是猫猫看了都不是很满意。之前一遍又一遍看结果就是仍然不能理解。直到最近重新拿起反向传播思考才有更深入的认识于是打算写这样一篇文章希望能为大家入门深度学习理解反向传播提供一个全新的思路~~ 2. 多元分类 逻辑回归是二元分类属于多元分类的一种特殊情况。在生活中多元分类问题十分常见。无论是看完一部电影给电影评星还是将一本书归到某一类的书架上都属于多元分类的问题。这一节我们就详细介绍如何用神经网络进行多元分类。 2.1 softmax函数 多元分类问题与二元分类问题类似区别在于用softmax函数替代sigmoid函数。多元分类的神经网络要求输出层的神经元数目与所需分类的类别数保持一致。图3-26展示了多元分类的模型结构。假设分类的类别数为k那么softmax函数需要输人k个值n1,n2,...,nk然后输出k个概率π1π2,...πk。softmax函数实际上是sigmoid函数的推广。softmax函数将所有分类的分数值n1,n2,...,nk转化为概率π1π2,...πk且各概率的和为1。 softmax函数的数学公式如下 softmax函数可以巧妙地将多个分类的分数转化为01的值并且和为1 2.2 Softmax函数对比Sigmoid函数 Sigmoid函数 线性神经元的输出为随后经过一个非线性的sigmoid函数公式中常把它简写作sign此函数的图像如下图所示。sigmoid函数的定义域为值域为01表达式为 Softmax函数 Softmax函数是用于多类分类问题的激活函数在多类分类问题中超过两个类标签则需要类成员关系。对于长度为K的任意实向量Softmax函数可以将其压缩为长度为K值在[0,1]范围内并且向量中元素的总和为1的实向量。 区别 Softmax所有分类概率总和为1。Sigmoid值是为1这个类的概率a。无论输出结果多大通过Sigmoid都限制在[0,1]之间。Sigmoid另一个类0的概率就是1-a。 3. 反向传播 反向传播算法BackpropagationAlgorithm又被业界称为BP算法是深度神经网络取得成功的奠基石。深度神经网络实际上是多隐含层神经网络在早期就已经被提出但是当时没有找到很好的训练方法使得深度神经网络的强大实力得不到发挥。直到反向传播算法的出现深度神经网络才得以崭露头角。如今反向传播是深度神经网络最重要的训练方法。 3.1 反向传播与神经网络 神经网络算法很早就被提出来了但是对于如何找到合适的参数去拟合数据一直是个问题人工找显然不现实。后面梯度下降算法被提出来我们也就知道了给出一个模型评价标志——loss。也就可以根据loss将目标改为降低loss从而训练模型参数。这时的问题就在于梯度下降算法需要知道函数的梯度。手工通过法则去计算每一个参数在loss中的梯度是不合适的。反向传播的出现让求解参数的梯度变得非常简单。利用链式法则从函数的输出结果loss逐级向前传播就可以一级一级求出每一个参数的梯度值。于是神经网络的训练模型才被完全建立起来神经网络模型才有工作的可能性  3.2 总体观 现在我们先讨论一个最简单的例子隐含层的层数为1的神经网络的前向传播及反向传播的过程。如下图所示我们的前向传播过程为输入经过隐含层得到再经过输出层得到经过损失函数得到损失值。 接着进行反向传播为了方便计算和推导我们定义变量暂时不去考虑代表什么。我们可以用一种抽象的方式去审视反向传播的过程如下图所示。这个过程首先将作为输入然后由反向传播至第3层各节点得到。反向传播经过第2层各节点得到利用、及第2层到第3层之间的权重矩阵求得梯度值。接着继续反向传播得到我们利用、及第1层到第2层之间的权重矩阵可以求得梯度值。 反向传播的理解 前向传播中一个数据点会生成三个下一层中的中间值。那么在反向传播中每一个下一层中的中间值都会反向来调整数据点的参数。反向传播本质上是求解参数相对于最终输出Loss的影响大小梯度的。上面有一个词用的非常模糊——反向传播。你可能会很疑惑这个反向传播是怎么工作的为什么就求出梯度大小了。下面的逐级观将给你答案。总体观只要关注到即可不用考虑具体值是什么这个值又是如何求解的。 3.3 逐级观数学推理仅仅想会使用不需要理解 上面猫猫展示了反向传播的总体过程如果你还没有完全理解也没关系下面我们要探讨每 层的细节。如下图所示我们将神经网络的第1层作为代表进行观察第1层的输人是设第I层到第I1层之间的权重矩阵为于是可以将数据经过该层的变换看作函数的运算。 前向传播的数学表达式如下 为了方便描述反向传播的过程我们定义数学表达如下 根据微积分的链式法则可以得到 上面公式表明想要求解出l层神经元相对于最终输出L的影响度则需要求解出的值同时利用后一层也就是l1层神经元相对于最终输出L的影响度。而的值就是第l层和第l1层之间的权重值W因此核心就在于求出每一层之间的权重。到这里我们就求出了每一个神经元对于输出Loss的梯度。接下去就要思考这个梯度如何用来更新权重。 知道神经元对于Loss的梯度值后我们就要根据梯度方向的相反方向去修正神经元的值。修正神经元的值本质就是修正神经元W权重的值。因此为了更新权重需要计算出损失函数关于神经网络内每个权重的梯度损失函数关于第l层到第I1层之间权重矩阵的梯度为 再来看下图假设我们要修正此时就需要知道对于L的梯度。这个梯度的求解就要利用到、、而这些我们都是已知的因此这个梯度就是已知的那么就可以根据梯度下降法去梯度更新的值了。​ 3.4 反向传播思想总结 网络上有许多关于反向传播的总结基本都是带大家走一遍反向传播的流程。这样做自然有它的用处但是猫猫发现很多时候我们都是走的时候能够看懂但是让自己写一遍就不能理解了。究其原因就是仅仅知其然并没有知其所以然。于是我想了这样一个角度去理解反向传播——总体观 和 局部观逐级观 总体观想要告诉我们 反向传播从输出值Loss向前面逐级传播。反向传播研究的是神经元相对于输出Loss的梯度影响程度也就是。总体观要给我们灌输一个思想神经元对于Loss的梯度本质上就是权重W对于Loss的梯度。前向传播一个第l层的神经元会参与计算第l1层所有的神经元。因此反向传播时所有第l1层的神经元会反向作用于这个第l层的神经元影响它的参数变化。 局部观想要告诉我们 为什么神经元对于Loss的梯度本质上就是权重W对于Loss的梯度权重W对于Loss的梯度是多少所有第l1层的神经元会反向作用于这个第l层的神经元影响它的参数变化链式法则的运用使得梯度可以逐层传播 4. 梯度反向传播的完整例子 现在我们用一个例子来讲解BP如下图所示我们选取的例子是最简单的feed forward neural network它有两层输入层有两个神经元 x1,x2隐藏层有两个神经元 h1,h2最终输出只 有一个神经元y各个神经元之间全连接。为了直观起见我们给各个参数赋上具体的数值。我 们令下x11,x20.5然后我们令W1,W2,W3,W4的真实值分别是1,2,3,4令W5,W6的真实值是0.5,0.6。这样我们可以算出 y的真实目标值是t 4。 那么为了模拟一个Back Propagation的过程我们假设我们只知道 x11,x20.5 以及对应的目标 t4 。我们不知道 w1,w2,w3,w4,w5,w6 的真实值现在我们需要随机为他们初始化值假设我们的随机化结果是 w10.5,w21.5,w32.3,w43,w51,w61 。下面我们就开始来一步步进行Back Propagation吧。 Step1前向传播 首先在计算反向传播之前我们需要计算Feed Forward Pass也即是预测的 h1,h2,y 和误差项 E 其中 。根据网络结构示意图各个变量的计算公式为 Step2反向传播 现在Feed Forward Pass算完了我们来计算Backward Pass。 y 是神经网络预测的值真实的输出是 t4 。那么要更新 w5 的值我们就要算 根据链式法则有: 因为 所以 而所以  把上面两项相乘我们得到 Step3梯度下降 运用之前梯度下降法的公式更新 w5 得到新的 w5’ 。其中我们假设 η0.1 并且后面所有的 η 都等于 0.1  同理我们可以按照相同的步骤计算 w6 的更新公式 下面我们再来看 w1,w2,w3,w4 由于这四个参数在同一层所以求梯度的方法是相同的因此我们这里仅展示对 w1 的推导。根据链式法则 其中 在求的时候已经求过了。而根据我们可以得到 又根据 h1w1⋅x1w2⋅x2 我们可以得到 因此我们有下面的公式 现在我们代入数字并使用梯度下降法更新 w1 然后重复这个步骤更新w2、w3、w4 现在我们已经更新了所有的梯度完成了一次梯度下降法。我们用得到的新的 w 再来预测一次网络输出值根据Feed Forward Pass得到 y’3.1768 那么新的误差是 E‘0.3388 相比于之前的 E0.55125 确实是下降了呢说明我们的模型预测稍微准了一点。只要重复这个步骤不断更新网络参数我们就能学习到更准确的模型啦。 5. 总结 如果想要学习更多深度学习知识大家可以点个关注并订阅持续学习、天天进步 你的点赞就是我更新的动力如果觉得对你有帮助辛苦友友点个赞收个藏呀~~~
http://www.hkea.cn/news/14285884/

相关文章:

  • 2012系统 做网站ug wordpress
  • 优酷视频网站开发企点账户中心
  • 做代还的人都聚集在哪些网站企业开源网站系统
  • 做网站的技术风险网络运维app
  • 网站设计在线培训机构甜品店网页模板html
  • 陕西建设分行网站wordpress改域名后500
  • 做网站如何接单php网站做安卓客户端
  • ip段访问网站代码西安市做网站公司
  • 网站部署设计洛阳做网站公司有哪些
  • 济南济南网站建设网站建设wordpress多媒体大小
  • 企业网站怎么建设公司高级网络规划师报考条件
  • 专业做pc+手机网站免备案自助建站网站
  • 网站建设中的注册和登录页面抖音推广计划
  • 网站建设与管理是什么工作做印刷的网站有哪些
  • 网站开发语言为 php用wordpress做开放的wiki
  • 慈云寺网站建设网页打不开显示404要怎么处理
  • app ui设计欣赏 网站网站后台管理系统 静态页面
  • 深圳电商网站公司wordpress中php代码只能一行一行写
  • 网站设计和平面设计定西市小企业网站建设
  • 淄博网站制作制作专业北京翻译公司
  • 山西笑傲网站建设推广西安做义工网站
  • 基层建设网站海南网站建设制作
  • 安徽盛绿建设网站单位网站开发合同范本
  • 网站开发软件三剑客做饲料机械的网站
  • 做微商建自己的网站有用吗虚拟主机如何做多个网站
  • 石家庄网站建设加王道下拉制作企业网页的公司
  • 淘宝导购网站模版阿里云虚拟主机做多个网站
  • 什么网站可以发布信息如何免费让网站上线
  • 邯郸网站设计哪家专业wordpress插件改图标
  • 网站上怎么做福彩卖家ps制作个人网站首页