当前位置: 首页 > news >正文

用什么做网站最简单深圳画册设计企业

用什么做网站最简单,深圳画册设计企业,知名商业网站有哪些,网站搭建一般要【导师不教#xff1f;我来教#xff01;】同济计算机博士半小时就教会了我五大深度神经网络#xff0c;CNN/RNN/GAN/transformer/LSTM一次学会#xff0c;简直不要太强#xff01;_哔哩哔哩_bilibili了解的五大神经网络#xff0c;整理笔记如下#xff1a; 视频是唐宇…【导师不教我来教】同济计算机博士半小时就教会了我五大深度神经网络CNN/RNN/GAN/transformer/LSTM一次学会简直不要太强_哔哩哔哩_bilibili了解的五大神经网络整理笔记如下 视频是唐宇迪博士讲解的但是这个up主发的有一种东拼西凑的感觉给人感觉不是很完整 一、卷积神经网络优势计算机视觉 1、卷积的作用特征提取本质就是提取卷积核那个大小区域中的特征值 2、利用不同的卷积核对同一数据进行提取可以得到多维度的特征图丰富特征内容 3、边缘填充padding可以解决边缘特征在提取时权重不高的问题 4、卷积的结果公式 其中size是下一次特征图长或宽size是这一次特征图的长或宽kernelsize是卷积核大小padding留白行数step为卷积步长 5、为了减少计算量在一轮卷积中卷积核的参数是共享的不会随着位置改变而改变 6、池化层的作用特征降维 7、通常说几层神经网络的时候只有带权值与参数的层会被计入如卷积层与线性层如池化层这种不带权值与参数的层不会被计入 8、经典的CNN网络模型AlexNet、VGG、ResNet利用残差相加提供了增加网络深度的方法 9、感受野特征图中特征所代表的原图中区域的大小 10、具有相同的感受野的多个小卷积核组合与一个大卷积核相比所需要的参数少特征提取更细致加入的非线性变换也更多所以现在基本上都使用小卷积核来进行卷积 二、循环神经网络RNN)(优势时间序列问题处理多用于NLP 1、输入数据为特征向量并且按照时间顺序排列 2、RNN网络缺点是会记忆之前所有的数据LSTM模型通过加入遗忘门解决了这个问题 3、示例Word2Vec 文本向量化创建一个多维的文本空间一个向量就代表一个词词义越相近的词在文本空间中的距离也就越近 4、Word2Vec模型中反向传播的过程中不仅会更新神经网络还会更新输入的词向量 5、RNN经典模型CBOWskipgram 6、由于数据量大模型构建方案一般不使用输入一词输出预测词的模式而是使用输入前一词A和后一词B输出B在A后的概率但是由于数据集均为通顺语句采集而来概率均为1所以需要人为在数据集中加入错误语句并且标记概率为0被称为负采样 三、对抗生成网络GNN 1、对抗生成网络分为生成器、判别器、损失函数其中生成器负责利用噪声生成数据产生以假乱真的效果判别器需要火眼金睛分辨真实数据与虚假数据损失函数负责让生成器更加真实让判别器更加强大。 四、Teansformer功能强大但是需要很大数据来训练 1、Transformer由编码器Encoder和解码器Decoder组成 2、Transfromer的本质就是重组输入的向量以得到更加完美的特征向量 3、Transfromer的工作流程 3.1、获取输入句子的每一个单词表示向量X由单词特征加上位置特征得到 3.2、将得到的单词表示向量矩阵X传入Encoder中输出编码矩阵CC与输入的单词矩阵X维度完全一致 3.3、将矩阵C传递到Decoder中Decoder依次根据当前翻译过的单词预测下一个单词。 4、Transformer的内部结构如下图所示 5、在训练时Decoder中的第一个Multi-Head Attention采用mask模式即在预测到第i1个单词时候需要掩盖i1之后的单词。 6、单词的特征获取方法有很多种比如Word2VecGlov算法预训练或者也可以使用Transformer训练得到位置特征则可以通过公式得到公式如下 7、Add是残差链接操作Norm是LayerNormalization归一化操作Feed Forward层是两个全连接层第一个全连接层使用ReLU进行非线性激活第二个不激活 8、Transformer内部结构存在多个Multi-Head Attention结构这个结构是由多个Attention组成的多头注意力机制Attention 注意力机制为Transformer的重点它可以使模型更加关注那些比较好的特征忽略差一些的特征 9、Attention内部结构如下图所示 10、Attention接收的输入为单词特征矩阵X或者上一个Encoder block的输入经过三个矩阵WQ、WK、WV的变换得到了三个输入Q、K、V然后经过内部计算得到输出Z 11、Attention内部计算的公式可以概况为 12、Multi-Head Attention将多个Attention的输出拼接在一起传入一个线性层得到最终的输出Z 13、Transformer与RNN相比不能利用单词顺序特征所以需要在输入加入位置特征经过实验加入位置特征比不加位置特征的效果好三个百分点位置特征的编码方式不对模型产生影响。 14、VIT是Transfromer在CV领域的应用VIT第一层的感受野就可以覆盖整张图 15、VIT的结构如下 16、VIT将图片分为多个patch16*16然后将patch投影为多个固定长度的向量送入Transformer利用Transformer的Encoder进行编码并且在输入序列的0位置加入一个特殊的tokentoken对应的输出就可以代表图片的类别 17、Transformer需要大量的数据比CNN多得多需要谷歌那个级别的数据量 18、TNT模型VIT将图片分为了16*16的多个patchTNT认为每个patch还是太大了可以继续进行分割 19、TNT模型方法在VIT基础上将拆分后的patch当作一张图像进行transformer进一步分割划分为新的向量通过全连接改变输出特征大小使其重组后的特征与patch编码大小相同最后与元素输入patch向量进行相加 20、DETR模型用于目标检测结构如下 五、LSTM长短期记忆 这部分基本是代码解析了就没有记录我认为LSTM其实就是RNN的一个分支。
http://www.hkea.cn/news/14556438/

相关文章:

  • 企业网站推广方法贵州企业网站建设案例
  • 徐州百度网站快速优化旅游企业网站建设工作的通知
  • 西安做公司网站江西住建云网站
  • 中文域名做的网站有哪些浏览网址大全
  • 学校网站建设年度总结湖南网络工程职业学院
  • 成都市建设网站首页上海网站制作服务
  • 做网站公司需要多少钱iis做的网站如何添加播放器
  • 网站开发需要什么服务器如何做网站 知乎
  • 服务企业网站建设的ITwordpress栏目id顺序
  • 做彩票网站需要境外微信官网网页版登录入口
  • 提升网站流量网站优化分析软件
  • 个人备案域名可以做哪些网站吗网站开发可行性技术方案
  • 网站是否被k无锡平台公司
  • 江苏建设科技网站禅城网站开发
  • wordpress手机图片站公司建设网站属于什么科目
  • 石家庄栾城区建设局网站企业品牌vi设计
  • 深圳市鸿运通网站建设网站关键词的选择
  • 怎样做微课网站网站底部导航
  • 哪些网站适合用自适应建站软件免费试用
  • 专业做家居的网站企业展厅设计公司哪家好怎么样
  • 移动网站建设渠道彩票网站建设一条龙
  • 网站的icp 备案信息提供大良网站建设
  • 网站月流量如何使用阿里云建站
  • 网站怎么在工信部备案信息郑州新闻
  • 电脑培训班速成班附近纯静态网站页面优化
  • jquery+js网站模板免费下载成品短视频app源码的下载方法
  • 江苏网站关键词优化优化网站的开发方法有哪些
  • 河南省重点项目建设网站直播视频app
  • 个人网站设计公司门户网站建设企业
  • php网站代做是什么意思档案网站建设的意义