当前位置: 首页 > news >正文

joomla! 1.5 网站建设基础教程领手工在家做的网站

joomla! 1.5 网站建设基础教程,领手工在家做的网站,如何用dw做网站框架,上海网站建设团队杨浦文章目录 前言一、ViT理论二、模型结构三、实验结果总结 前言 ViT是谷歌团队在2021年3月发表的一篇论文#xff0c;论文全称是《AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE》一张图片分成16x16大小的区域#xff1a;使用Transformer进行按比… 文章目录 前言一、ViT理论二、模型结构三、实验结果总结 前言 ViT是谷歌团队在2021年3月发表的一篇论文论文全称是《AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE》一张图片分成16x16大小的区域使用Transformer进行按比例的图像识别。ViT是Vison Transformer的缩写通过将一张照片分割为不同的Patch输入到Transformer中进行有监督的训练从而实现Transformer在CV领域的应用。接下来我们进行这篇论文的详细介绍。 一、ViT理论 Transformer在NLP领域取得了很大的成功但是应用在CV领域时却受到了限制。尽管已经有不少工作将Transformer应用在CV领域但是这些工作要么就是将Transformer与CNN结合使用要么就是使用自注意力替换CNN中的某些组件。ViT要做的就是直接将Transformer在NLP的工作方式搬移到CV中而不改变网络结构和输入形式从而打破CV和NLP领域之间的鸿沟。   ViT的核心思路就是将输入的照片划分成相同大小的patch然后将这些patch经过一个全连接层进行embedding然后直接输入到Transformer中进行有监督的训练。但是由于Transformer应用在CV时缺少CNN网络的归纳偏置所以ViT在小数据集上的效果并不如CNN。但是当扩展到较大规模的数据集时14M-300M imagesViT便可弥补没有归纳偏置的缺点通过Transformer优秀的全局建模能力在性能上超过经典的CNN网络。 二、模型结构 ViT模型由Transformer的编码器堆叠而成但其对原始的Transformer编码器进行了一些改动将LayerNorm放到了多头注意力的前面。如下图所示 其模型的前向过程如下所示 1.当输入一张照片尺寸为224x224x3首先会将照片分割成16x16大小的patch对于224x224大小的图片则被分成了14x14196个patch每个patch的维度为16x16x3。 2.将每个patch拉伸成16x16x3768则图片由224X224X3变为了196x768。 3.经过全连接层输出维度仍然为196x768。相当于输入一共196个tokens每个tokens的维度为768。 4.在最前面加上一个特殊提示符token则输入维度变成了197x768。第一个token是特殊提示符与BERT类似 5.与可学习的位置编码进行相加相加后的维度为197x768。 6.经过堆叠的Transformer encoder层输出维度为197x768。 7.将第一个token对应的输出维度为1x768经过全连接层后进行分类。 当ViT在大规模数据集上预训练完成后在下游任务进行微调时将预训练中的预测头去掉然后新加一个适合于下游任务的分类头进行微调。  需要注意的一点是一般来说微调时的数据分辨率大于训练时的数据分辨率着对模型提升是有益的。但这会导致预训练和微调阶段输入到模型的tokens数量也不相同。尽管Transformer可以处理任意长度的tokens输入但是预训练时的可学习位置编码可能不在有意义。因此ViT在微调时会根据patch在原始图像中的位置对训练好的位置编码进行2D内插。 三、实验结果 ViT共准备了三种大小尺寸的模型分别为 ModelLayersHidden sizeMLP sizeHeadsParamsViT-Base1276830721286MViT-Large241024409616307MViT-Huge321280512016632M 在下图中BiT为基于ResNet的卷积网络可以看到在ImageNet数据集上ViT的性能是不如CNN的但是随着数据集的增加ViT的性能超过了CNN。说明在大数据集上ViT是更有优势的。 下图中Hybrid代表输入的图片先使用CNN进行特征提取然后送进Transformer中相当于是CNN和Transformer的结合。可以看出当计算量较小模型规模较小时Hybrid的方法是超过ResNet和Transformer的但是随着计算量的增大模型规模变大Transformer的性能仍然呈现出继续上升的趋势而Hybrid方法的性能却趋向于饱和。这也是基于Transformer的一个优势目前还没有发现随着模型和数据的增大性能趋于饱和的情况。 更多的实验结果小伙伴们可以去论文里查找。 总结 ViT通过将图片划分成许多patch实现了Transformer在CV领域的直接应用而不用对图片输入进行额外的处理在大规模数据集上ViT实现了当时最好的结果。ViT也存在着一些局限性例如是有监督的需要在大规模数据集上进行预训练等。总的来说ViT缩小了CV和NLP领域之间的gap也间接的推动了多模态的发展后续基于ViT模型涌现出了一大批优秀的工作。
http://www.hkea.cn/news/14466193/

相关文章:

  • 户外运动网站建设策划汕头论坛
  • 编写 网站 语言宁德市自然资源局
  • 怎样架设网站wordpress怎么改登陆不了
  • 印度外贸网站有哪些德阳响应式网站建设
  • 湖北建设部网站官网水区建设局网站
  • 平湖城乡规划建设局网站网站改手机版
  • 二级学院英语网站建设通知优设网剪辑教程
  • 自己做博客网站好chaincd wordpress
  • 泰安网站制作推广七米网站开发
  • 针对网站做搜索引擎做优化郑州设计院排名
  • 去菲律宾做网站网络的推广
  • 东莞网站制作公司是什么个人网页设计与制作学年论文
  • 速成网站怎么做大连网站制作多少钱
  • 网站开发 策划是干嘛的wordpress文章找不到
  • 长春高端品牌网站建设搜房网房天下官网
  • wordpress怎么关注站点沧州模板建站平台
  • 网站被黑刚恢复排名又被黑了网站的推广方式
  • 烟台网站建设开发目前网站建设主流技术架构
  • 东莞网站制作网站网络销售有哪些
  • 利津网站建设找兼职工作在家做哪个网站好
  • 设计网站账号如何做网站横幅
  • 帝国cms地方门户网站模板网站设计团队
  • 企业网站建设 南通中国建设银行网站多少
  • 风格 特别的网站wordpress个人云盘
  • 深圳西丽网站建设公共交通公司网站建设方案
  • 网站建设策划实施要素用php建设一个简单的网站
  • 广告联盟怎么建设网站建设银行上海分行网站
  • 怎么找人做网站啊网络营销推广方法选择
  • 网站建设公司muyunke建筑行业征信查询平台官网
  • 招工做的网站松阳县建设局网站公示