当前位置: 首页 > news >正文

新沂网站建设建筑企业公司

新沂网站建设,建筑企业公司,页面设计要会什么,最新商业资讯深度学习-Pytorch实现经典AlexNet网络之山高我为峰 深度学习中#xff0c;经典网络引领一波又一波的技术革命#xff0c;从LetNet到当前最火的GPT所用的Transformer#xff0c;它们把AI技术不断推向高潮。2012年AlexNet大放异彩#xff0c;它把深度学习技术引领第一个高峰…深度学习-Pytorch实现经典AlexNet网络之山高我为峰 深度学习中经典网络引领一波又一波的技术革命从LetNet到当前最火的GPT所用的Transformer它们把AI技术不断推向高潮。2012年AlexNet大放异彩它把深度学习技术引领第一个高峰打开人们的视野。 用pytorch构建CNN经典网络模型AlexNet还可以用数据进行训练模型得到一个优化的模型。 数据分析 数据分析-Pandas如何转换产生新列 数据分析-Pandas如何统计数据概况 数据分析-Pandas如何轻松处理时间序列数据 数据分析-Pandas如何选择数据子集 数据分析-Pandas如何重塑数据表-CSDN博客 经典算法 经典算法-遗传算法的python实现 经典算法-模拟退火算法的python实现 经典算法-粒子群算法的python实现-CSDN博客 AlexNet概述 第一个典型的CNN是LeNet5网络而第一个引领技术潮流的CNN却是AlexNet。2012年在全球知名的图像识别竞赛 ILSVRC 中AlexNet 横空出世直接将错误率降低了近 10 个百分点。这是断崖式的领先。当时AlexNet的影响和现在chatGPT带来的效应相当。 网络结构 输入图像分辨率227x227x3 通道 结构 9层1个输入层5个卷积层2个全连接层1个输出层因GPU内存不够分为上下两组 1C111x11 —输出2组48个55×55大小的特征图– ReLU -- LRN -- MaxPooling 2C25x5 —输出2组128个27×27大小的特征图– ReLU -- LRN -- MaxPooling 3C33x3 —输出384个13×13大小的特征图– ReLU 4C43x3 —输出2组192个13×13大小的特征图– ReLU 5C53x3 —输出2组128个13×13大小的特征图– ReLU -- MaxPooling 6FC6 ---- 6x6输入2组6x6x128特征图输出4096个1x1全连接层– ReLU -- Dropout 7FC7 ---- 输入4096个神经元输出4096个神经元– ReLU -- Dropout 8输出层— 输入4096个神经元–softmax --输出 1000分类 整个AlexNet网络包含的神经元个数为 290400 186624 64896 64896 43264 4096 4096 1000 659272 大约65万个神经元。 整个AlexNet网络包含的参数数量为 34944 307456 885120 663936 442624 37752832 16781312 4096000 60964224 大约6千万个参数。 优势与不足 优势采用激活函数ReLU局部响应归一化使用Dropout机制Max Pooling重叠池化双GPU训练图像尺寸扩大227x227x3。 Pytorch实现 以下便是使用Pytorch实现的经典网络结构AlexNet # AlexNet 227x227x3 class AlexNet(nn.Module):def __init__(self, channels, num_classes):super(AlexNet, self).__init__()self.features nn.Sequential(# 输入通道数为3彩色图片# 输出96、卷积核为11x11步长为4是AlexNet模型结构决定nn.Conv2d(channels, 96, kernel_size11,stride4, padding2),nn.ReLU(),nn.MaxPool2d(kernel_size3,stride2),nn.Conv2d(96, 256,kernel_size5, padding2),nn.ReLU(),nn.MaxPool2d(kernel_size3,stride2),nn.Conv2d(256, 384, kernel_size3, padding1),nn.ReLU(),nn.Conv2d(384, 384, kernel_size3,padding1),nn.ReLU(),nn.Conv2d(384, 256, kernel_size3,padding1),nn.ReLU(),nn.MaxPool2d(kernel_size3, stride2))# 全连接层self.classifier nn.Sequential(# 全连接的第一层输入卷积输出的拉平值即6*6*256# 输出为4096nn.Linear(in_features6*6*256,out_features4096),nn.ReLU(),# AlexNet采取了DropOut进行正则防止过拟合nn.Dropout(p0.5),nn.Linear(4096,4096),nn.ReLU(),nn.Dropout(p0.5),# 最后一层输出1000个类别也是我们所说的softmax层nn.Linear(4096,num_classes))# 前向算法def forward(self,x):x self.features(x)x torch.flatten(x,1)result self.classifier(x)return result 大家可以和LetNet5对照差异也可以一窥DeepLearning技术的突破点。 在AlexNet开创一片天地后CNN网络引领的深度学习蓬勃发展造就人工智能技术革命的起点。 觉得有用 收藏 收藏 收藏 点个赞 点个赞 点个赞 End GPT专栏文章 GPT实战系列-ChatGLM3本地部署CUDA111080Ti显卡24G实战方案 GPT实战系列-LangChain ChatGLM3构建天气查询助手 大模型查询工具助手之股票免费查询接口 GPT实战系列-简单聊聊LangChain GPT实战系列-大模型为我所用之借用ChatGLM3构建查询助手 GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型到底做了什么(二) GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型到底做了什么(一) GPT实战系列-ChatGLM2模型的微调训练参数解读 GPT实战系列-如何用自己数据微调ChatGLM2模型训练 GPT实战系列-ChatGLM2部署UbuntuCuda11显存24G实战方案 GPT实战系列-Baichuan2本地化部署实战方案 GPT实战系列-Baichuan2等大模型的计算精度与量化 GPT实战系列-GPT训练的PretrainingSFTReward ModelingRLHF GPT实战系列-探究GPT等大模型的文本生成-CSDN博客
http://www.hkea.cn/news/14365779/

相关文章:

  • 自适应企业网站写一个小程序多少钱
  • 怎么做招投标网站中国营销型网站
  • 图书馆网站建设工作总结做外贸用什么平台
  • 北京网站制作闪快手机便宜电商网站建设
  • 电子商务如何做网站销售为什么不建议去外包公司上班
  • 平顶山市哪里有做网站的半岛网
  • 郑州做公司网站彩票网站开发制作h5
  • 做网站公司赚钱么mysql 怎么存储wordpress
  • 医院网站的建设火蝠电商代运营值得相信吗
  • 建网站的意义吉安建设公司网站
  • 网站流量做那些好wordpress如何加好友
  • 网站开发行业竞争phpstorm网站开发
  • 网站数据库地址是什么企业网络设计方案论文
  • 杭州网站免费制作企业网站模板 asp
  • 如何建立微网站详细门户网上登录入口
  • 网站界面排版免费域名注册登录
  • 鹤壁建设网站推广公司网站含义
  • 商业网点建设中心网站淘宝优惠券返利网站怎么做
  • 深圳网站优化多少钱做图的模板下载网站有哪些
  • 网站字体只能用工商登记信息查询系统官网
  • 已经有域名如何做网站wordpress主题制作全过程(三):html静态模板制作
  • 各种网站末班深圳产品型网站建设
  • 360免费建站模板怎么用flash做游戏下载网站
  • 提供网站建设备案报价手机app界面设计论文
  • 做网站的需要花多少钱网络营销的培训课程视频
  • 网站平台优化网站建设与维护 pdf
  • 盐城市亭湖区城乡建设局网站产品经理如何看待网站开发
  • 电子商城网站建站客移动端和pc端的区别
  • 成功的网站设计做网站需要域名还需要什么
  • 有了网站 怎么做排名优化数码庄园的网站建设公司