当前位置: 首页 > news >正文

qq登录网站怎么做做二手平台公益的网站

qq登录网站怎么做,做二手平台公益的网站,设计网站要包含信息类型,wordpress分类目录导航【导师不教#xff1f;我来教#xff01;】同济计算机博士半小时就教会了我五大深度神经网络#xff0c;CNN/RNN/GAN/transformer/LSTM一次学会#xff0c;简直不要太强#xff01;_哔哩哔哩_bilibili了解的五大神经网络#xff0c;整理笔记如下#xff1a; 视频是唐宇…【导师不教我来教】同济计算机博士半小时就教会了我五大深度神经网络CNN/RNN/GAN/transformer/LSTM一次学会简直不要太强_哔哩哔哩_bilibili了解的五大神经网络整理笔记如下 视频是唐宇迪博士讲解的但是这个up主发的有一种东拼西凑的感觉给人感觉不是很完整 一、卷积神经网络优势计算机视觉 1、卷积的作用特征提取本质就是提取卷积核那个大小区域中的特征值 2、利用不同的卷积核对同一数据进行提取可以得到多维度的特征图丰富特征内容 3、边缘填充padding可以解决边缘特征在提取时权重不高的问题 4、卷积的结果公式 其中size是下一次特征图长或宽size是这一次特征图的长或宽kernelsize是卷积核大小padding留白行数step为卷积步长 5、为了减少计算量在一轮卷积中卷积核的参数是共享的不会随着位置改变而改变 6、池化层的作用特征降维 7、通常说几层神经网络的时候只有带权值与参数的层会被计入如卷积层与线性层如池化层这种不带权值与参数的层不会被计入 8、经典的CNN网络模型AlexNet、VGG、ResNet利用残差相加提供了增加网络深度的方法 9、感受野特征图中特征所代表的原图中区域的大小 10、具有相同的感受野的多个小卷积核组合与一个大卷积核相比所需要的参数少特征提取更细致加入的非线性变换也更多所以现在基本上都使用小卷积核来进行卷积 二、循环神经网络RNN)(优势时间序列问题处理多用于NLP 1、输入数据为特征向量并且按照时间顺序排列 2、RNN网络缺点是会记忆之前所有的数据LSTM模型通过加入遗忘门解决了这个问题 3、示例Word2Vec 文本向量化创建一个多维的文本空间一个向量就代表一个词词义越相近的词在文本空间中的距离也就越近 4、Word2Vec模型中反向传播的过程中不仅会更新神经网络还会更新输入的词向量 5、RNN经典模型CBOWskipgram 6、由于数据量大模型构建方案一般不使用输入一词输出预测词的模式而是使用输入前一词A和后一词B输出B在A后的概率但是由于数据集均为通顺语句采集而来概率均为1所以需要人为在数据集中加入错误语句并且标记概率为0被称为负采样 三、对抗生成网络GNN 1、对抗生成网络分为生成器、判别器、损失函数其中生成器负责利用噪声生成数据产生以假乱真的效果判别器需要火眼金睛分辨真实数据与虚假数据损失函数负责让生成器更加真实让判别器更加强大。 四、Teansformer功能强大但是需要很大数据来训练 1、Transformer由编码器Encoder和解码器Decoder组成 2、Transfromer的本质就是重组输入的向量以得到更加完美的特征向量 3、Transfromer的工作流程 3.1、获取输入句子的每一个单词表示向量X由单词特征加上位置特征得到 3.2、将得到的单词表示向量矩阵X传入Encoder中输出编码矩阵CC与输入的单词矩阵X维度完全一致 3.3、将矩阵C传递到Decoder中Decoder依次根据当前翻译过的单词预测下一个单词。 4、Transformer的内部结构如下图所示 5、在训练时Decoder中的第一个Multi-Head Attention采用mask模式即在预测到第i1个单词时候需要掩盖i1之后的单词。 6、单词的特征获取方法有很多种比如Word2VecGlov算法预训练或者也可以使用Transformer训练得到位置特征则可以通过公式得到公式如下 7、Add是残差链接操作Norm是LayerNormalization归一化操作Feed Forward层是两个全连接层第一个全连接层使用ReLU进行非线性激活第二个不激活 8、Transformer内部结构存在多个Multi-Head Attention结构这个结构是由多个Attention组成的多头注意力机制Attention 注意力机制为Transformer的重点它可以使模型更加关注那些比较好的特征忽略差一些的特征 9、Attention内部结构如下图所示 10、Attention接收的输入为单词特征矩阵X或者上一个Encoder block的输入经过三个矩阵WQ、WK、WV的变换得到了三个输入Q、K、V然后经过内部计算得到输出Z 11、Attention内部计算的公式可以概况为 12、Multi-Head Attention将多个Attention的输出拼接在一起传入一个线性层得到最终的输出Z 13、Transformer与RNN相比不能利用单词顺序特征所以需要在输入加入位置特征经过实验加入位置特征比不加位置特征的效果好三个百分点位置特征的编码方式不对模型产生影响。 14、VIT是Transfromer在CV领域的应用VIT第一层的感受野就可以覆盖整张图 15、VIT的结构如下 16、VIT将图片分为多个patch16*16然后将patch投影为多个固定长度的向量送入Transformer利用Transformer的Encoder进行编码并且在输入序列的0位置加入一个特殊的tokentoken对应的输出就可以代表图片的类别 17、Transformer需要大量的数据比CNN多得多需要谷歌那个级别的数据量 18、TNT模型VIT将图片分为了16*16的多个patchTNT认为每个patch还是太大了可以继续进行分割 19、TNT模型方法在VIT基础上将拆分后的patch当作一张图像进行transformer进一步分割划分为新的向量通过全连接改变输出特征大小使其重组后的特征与patch编码大小相同最后与元素输入patch向量进行相加 20、DETR模型用于目标检测结构如下 五、LSTM长短期记忆 这部分基本是代码解析了就没有记录我认为LSTM其实就是RNN的一个分支。
http://www.hkea.cn/news/14475405/

相关文章:

  • 网站页面前端基本设计中高端网站建设公司
  • 巴青网站制作望野小说
  • 网站建设要托管服务器网站安全建设需求
  • 微信公众号网站建设wordpress 搬家 换域名
  • wap网站快速开发宁波网站推广营销公司
  • 北京 公司网站 备案中 开通访问网页制作下载图片代码
  • 做论坛网站好吗网站建设价格就要用兴田德润
  • 如何做网站逻辑结构图专业网站设计制作过程
  • 在什么网站上做外贸网站制作公司多少钱
  • 做简单网站需要学什么软件自建网站模板代码
  • 宣传商务型的网站广州企业黄页大全
  • 成都高端网站建设哪家好哪里教做网站的
  • 深圳找做兼职女上班的网站苏州网站制作计划
  • 东莞网站建设方案报价一个app下载网站
  • 手机端网站开发 免费九九建筑网
  • 网站建设 重庆怎么看一个网站是不是仿站
  • 百度怎么进入官方网站有没有帮别人做网站
  • 网站项目开发流程有哪七步新闻类网站怎么建设
  • 网站内链怎么布局天津规划设计公司
  • 官方网站、门户网站是什么意思?wordpress主题汉化插件
  • 网站主机空间用哪个好贵州省城乡和建设厅网站首页
  • 免费建网站平台哪个好宁波网站建设运营
  • trs网站建设平台营销方案案例范文通用
  • 手机高端设计网站建设建设网站最重要的是什么
  • 网站建站怎么报价品牌网app下载
  • 淘气堡网站建设找摄影作品的网站
  • 学生网站建设实训总结html制作静态网站模板
  • 做理财的网站有哪些内容设计说明书范文
  • 专业网站建设效果显著外贸圈的尖子生
  • 上海市建设厅网站鄂尔多斯网站开发