当前位置: 首页 > news >正文

google网站排名介绍化工项目建设和招聘的网站

google网站排名,介绍化工项目建设和招聘的网站,网页制作学什么内容,怎么做一个订阅号9.27 语义鸿沟#xff1a; 是指输入数据的底层特征和高层语义信息之间的不一致性和查一下。如果可以有一个好的表示在某种程度上能够反映出数据的高层语义特征#xff0c;那么我们就能相对容易的构建后续的机器学习模型。嵌入#xff08;Embedding#xff09;#xff1a;…9.27 语义鸿沟 是指输入数据的底层特征和高层语义信息之间的不一致性和查一下。如果可以有一个好的表示在某种程度上能够反映出数据的高层语义特征那么我们就能相对容易的构建后续的机器学习模型。嵌入Embedding 将一个度量空间中的一些对象映射到另一个低维的度量空间中并尽可能地保持不同对象之间的拓扑关系。端到端的训练 在学习过程中不进行分模块或分阶段的训练直接优化任务的总体目标。梯度消失问题阻碍神经网络的进一步发展特别是循环神经网络。为了解决这个问题研究人员采用两步来训练一个多层的循环神经网络第一步为通过无监督学习的方式来逐层训练每一步循环神经网络即预测下一个输入第二部通过反向传播算法进行精调。过拟合问题往往是由于训练数据少和噪声以及模型能力强等原因造成的。为了解决过拟合问题一般在经验风险最小化的基础上再引入参数的正则化来限制模型能力使其不要过渡地最小化经验风险。这种就是结构风险最小化。超参数 用来定义模型结构或优化策略的参数。最简单、常用的优化算法为梯度下降首先初始化参数然后按照下面迭代公式来计算风险函数的最小值 θ t 1 θ t − α ∂ R D ( θ ) ∂ θ \theta _{t1}\theta _t-\alpha \frac{\partial R_D(\theta )}{\partial \theta } θt1​θt​−α∂θ∂RD​(θ)​,其中 α \alpha α为搜索步长一般称为学习率。Early Stop 每次迭代时把新的到的模型在验证集上进行测试计算错误率。如果在验证集上的错误率不再下降就停止迭代。目标函数是整个训练集上风险函数这种方式称为批量梯度下降法Batch Gradient DescentBGD。批量梯度下降法在每次迭代时需要计算每个样本上损失函数的梯度并求和。当训练集中的样本数量N 很大时空间复杂度比较高每次迭代的计算开销也很大。为了减少每次迭代的计算复杂度我们也可以在每次迭代时只采集一个样本计算这个样本损失函数的梯度并更新参数即随机梯度下降法Stochastic Gradient DescentSGD偏差指的是算法的期望预测与真实预测之间的偏差程度 反应了模型本身的拟合能力。方差度量了同等大小的训练集的变动导致学习性能的变化 刻画了数据扰动所导致的影响。 9.28 线性模型激活函数损失函数优化方法线性回归– ( y − ω T x ) 2 (y-\omega ^Tx)^2 (y−ωTx)2最小二乘、梯度下降逻辑回归 σ ( ω T x ) \sigma (\omega ^Tx) σ(ωTx) y l o g σ ( ω T x ) ylog\sigma (\omega ^Tx) ylogσ(ωTx)梯度下降Softmax回归 s o f t m a x ( W T x ) softmax(W^Tx) softmax(WTx) y l o g s o f t m a x ( W T x ) ylogsoftmax(W^Tx) ylogsoftmax(WTx)梯度下降感知器 s g n ( ω T x ) sgn(\omega^Tx) sgn(ωTx) m a x ( 0 , − y ω T x ) max(0,-y\omega^Tx) max(0,−yωTx)随机梯度下降支持向量机 s g n ( ω T x ) sgn(\omega^Tx) sgn(ωTx) m a x ( 0 , 1 − y ω T x ) max(0,1-y\omega^Tx) max(0,1−yωTx)二次规划、SMO等 学习率和批量大小的理解 在机器学习中特别是涉及到使用梯度下降算法进行模型训练时学习率通常被比喻成步长或者步幅。这个比喻是基于梯度下降的基本原理通过调整参数来最小化损失函数。在每次迭代中参数的更新量是由梯度损失函数关于参数的变化率与学习率的乘积决定的。因此如果把参数空间想象成一个山丘那么学习率就是你每一步下山时迈的步子大小。 如果学习率设置得太大就像迈出了很大的步伐可能会越过最低点导致无法收敛或收敛速度慢。相反如果学习率太小则像每次只迈出一小步虽然更有可能找到局部最小值但是达到最小值的速度会非常慢使得训练过程耗时过长。 至于批量大小batch size它影响的是我们计算梯度的方式。批量大小是指每次更新参数时所使用的样本数量。较小的批量大小如随机梯度下降SGD会导致估计的梯度有较高的方差这可能会使下降路径更加不稳定但有时也有助于跳出局部最小值。较大的批量大小则会产生更稳定但可能更保守的梯度估计这有助于更平滑的收敛路径但也可能导致陷入鞍点或局部最小值。 总结来说学习率可以类比为你下山的步伐大小而批量大小则是决定你是在每次只观察少数几个脚印小批量还是等待更多人走过之后再决定下一步的方向大批量。 反向传播的简单理解 反向传播是为了有效地计算出损失函数相对于网络中所有权重的梯度并据此调整权重以期最小化损失函数。之所以选择损失进行反向传播是因为损失直接反映了模型预测的质量通过减少损失可以间接地提高模型的预测能力。 线性回归从零实现时的训练过程 初始化参数 * 重复以下训练直到完成 * 计算梯度 * 更新参数 lr 0.03 num_epochs 3 net linreg loss squared_lossfor epoch in range(num_epochs):for X, y in data_iter(batch_size, features, labels):l loss(net(X, w, b), y) # X和y的小批量损失# 因为l形状是(batch_size,1)而不是一个标量。l中的所有元素被加到一起# 并以此计算关于[w,b]的梯度# 只是对所有损失求和l.sum()然后调用 .backward() 来计算这个总和损失关于模型参数的梯度。l.sum().backward() # 计算模型参数的梯度sgd([w, b], lr, batch_size) # 使用参数的梯度更新参数with torch.no_grad():train_l loss(net(features, w, b), labels)print(fepoch {epoch 1}, loss {float(train_l.mean()):f})9.29 《神经网络和深度学习》的第四章前馈神经网络 《动手学习深度学习》的第四章多层感知机的实现
http://www.hkea.cn/news/14545055/

相关文章:

  • 网站邮件推送竞价推广岗位职责
  • shtml怎么做网站企业宣传册制作
  • 大连开发网站建设黑帽seo优化软件
  • 如何查询一个网站是否备案用户界面设计案例
  • 哪些网站可以找兼职做室内设计站外引流推广渠道
  • 手机网站 布局com域名注册1元
  • 推广任务怎么做网站搜索引擎优化怎么做
  • 做网站 新域名 还是网络设计图纸是什么
  • 托管型网站手机网站 设置
  • 生产企业网站有哪些看广告挣钱一天300元
  • 网站建设网站推广服务公司时间轴网站设计
  • 网站如何做分站系统百度搜索不到我的网站
  • 青岛中英网站建设外协机械加工订单
  • 月嫂网站建设建设工程培训
  • 网站内容建设的布局和结构织梦 更换网站图标
  • 上海网站建设工作网格搜索优化
  • 花都定制型网站建设哈尔滨专业网站建设哪个好
  • 银川网站公司聊天网站开发
  • 淮安网站建设长沙协会网站设计专业服务
  • 有谁帮做网站网站建设产品需求文档
  • 山东省城乡住房和城乡建设厅网站全国婚孕检服务平台小程序
  • 企业网站模块介绍建设电商网站的总结报告
  • 山东德州最新消息今天郑州优化网站公司有哪些
  • 网站空间 推荐抖音代运营公司排名前十
  • 宁波免费建站seo排名建盏哪家好
  • 建站公司排名wordpress title 分类
  • wordpress建站不知道密码山东济宁做网站的公司有哪些
  • 单仁网站建设上海营销型企业网站
  • 网站建设基础知识及专业术语职业学校查询网站
  • 购物网站开发含代码wordpress阿里云oss插件