当前位置: 首页 > news >正文

白银市建设局网站首页百度竞价开户哪家好

白银市建设局网站首页,百度竞价开户哪家好,wordpress博客转换小程序,黑龙江牡丹江双鸭山伊春推广文章目录 前言一、Group normalization二、批量规范化(Batch Normalization)三、层规范化#xff08;Layer Normalization#xff09; 前言 批量规范化和层规范化在神经网络中的每个批次或每个层上进行规范化#xff0c;而GroupNorm将特征分成多个组#xff0c;并在每个组内… 文章目录 前言一、Group normalization二、批量规范化(Batch Normalization)三、层规范化Layer Normalization 前言 批量规范化和层规范化在神经网络中的每个批次或每个层上进行规范化而GroupNorm将特征分成多个组并在每个组内进行规范化。这种规范化技术使得每个组内的特征具有相同的均值和方差从而减少了特征之间的相关性。通常组的大小是一个超参数可以手动设置或自动确定。   相对于批量规范化GroupNorm的一个优势是它对批次大小的依赖性较小。这使得GroupNorm在训练小批量样本或具有不同批次大小的情况下更加稳定。另外GroupNorm还可以应用于一维、二维和三维的输入适用于不同类型的神经网络架构。   GroupNorm的一种变体是分组卷积Group Convolution它将输入通道分成多个组并在每个组内进行卷积操作。这种结构可以减少计算量并提高模型的效率。 BatchNormbatch方向做归一化算N* H*W的均值LayerNormchannel方向做归一化算C* H* W的均值InstanceNorm一个channel内做归一化算H*W的均值GroupNorm将channel方向分group然后每个group内做归一化算(C//G) * H * W的均值 一、Group normalization Group normalizationGroupNorm是深度学习中用于规范化神经网络激活的一种技术。它是一种替代批量规范化BatchNorm和层规范化LayerNorm等其他规范化技术的方法。 import torch import torch.nn as nnclass GroupNorm(nn.Module):def __init__(self, num_groups, num_channels, eps1e-5):super(GroupNorm, self).__init__()self.num_groups num_groupsself.num_channels num_channelsself.eps epsself.weight nn.Parameter(torch.ones(1, num_channels, 1, 1))self.bias nn.Parameter(torch.zeros(1, num_channels, 1, 1))def forward(self, x):batch_size, num_channels, height, width x.size()# 将特征重塑成 (batch_size * num_groups, num_channels // num_groups, height, width)x x.view(batch_size, self.num_groups, -1, height, width)# 计算每个组内的均值和方差mean x.mean(dim(2, 3, 4), keepdimTrue)var x.var(dim(2, 3, 4), keepdimTrue)# 规范化x (x - mean) / torch.sqrt(var self.eps)# 重塑特征x x.view(batch_size, num_channels, height, width)# 应用缩放和平移x x * self.weight self.biasreturn x# 使用示例 group_norm GroupNorm(num_groups4, num_channels64) inputs torch.randn(32, 64, 32, 32) outputs group_norm(inputs) print(outputs.shape)二、批量规范化(Batch Normalization) BatchNorm的基本思想是对每个特征通道在一个小批次即一个批次中的多个样本的数据上进行规范化使得其均值接近于0方差接近于1。这种规范化可以有助于加速神经网络的训练并提高模型的泛化能力。   具体而言对于给定的一个特征通道BatchNorm的计算过程如下 对于一个小批次中的输入数据计算该特征通道上的均值和方差。使用计算得到的均值和方差对该特征通道上的数据进行规范化使得其均值为0方差为1。对规范化后的数据进行缩放和平移操作使用可学习的参数进行调整以恢复模型对数据的表示能力。 通过在训练过程中对每个小批次的数据进行规范化BatchNorm有助于解决梯度消失和梯度爆炸等问题从而加速模型的收敛速度。此外BatchNorm还具有一定的正则化效果可以减少模型对输入数据的依赖性增强模型的鲁棒性。 import torch import torch.nn as nn# 输入数据形状(batch_size, num_features) input_data torch.randn(32, 64)# 使用BatchNorm进行批量规范化 batch_norm nn.BatchNorm1d(64) output batch_norm(input_data)print(output.shape)三、层规范化Layer Normalization 与批量规范化相比层规范化更适用于对序列数据或小批次样本进行规范化例如自然语言处理任务中的文本序列。它在每个样本的特征维度上进行规范化使得每个样本在特征维度上具有相似的分布。 层规范化的计算过程如下 对于每个样本计算该样本在特征维度上的均值和方差。 使用计算得到的均值和方差对该样本的特征进行规范化使得其均值为0方差为1。对规范化后的特征进行缩放和平移操作使用可学习的参数进行调整以恢复模型对数据的表示能力。 import torch import torch.nn as nn# 输入数据形状(batch_size, num_features) input_data torch.randn(32, 64)# 使用LayerNorm进行层规范化 layer_norm nn.LayerNorm(64) output layer_norm(input_data)print(output.shape)
http://www.hkea.cn/news/14481601/

相关文章:

  • 山东省山东省建设厅网站首页涡阳做网站
  • asp如何做网站wordpress 分类下的文章
  • 没有网站seo怎么做查看网站是哪个公司做的
  • 廊坊微信网站建设WordPress抓取豆瓣
  • 网站规划与建设课程设计深圳哪里有可以做网站跳转的公司
  • 网站 ftpsem竞价专员是干什么的
  • 学院网站建设工作会议传智黑马培训机构
  • 怎么给网站添加关键词网站设计外文文献
  • 百色网站建设短网址还原
  • 搜寻的网站有哪些网站建设分金手指专业六
  • 深圳营销型网站公司电话门户网站建设的意义
  • 沈阳网站开发培训多少钱建设工程教育网论坛官网
  • 个人网站有哪些平台做网上商城网站
  • 做网站是不是要有数据库旅游网络推广怎么做
  • 江苏广泽建设有限公司网站vip影视网站如何做app
  • 装饰公司怎么做网站做网站的电脑自带软件是什么
  • aspcms网站地图模板长沙建企聘企业管理有限公司
  • 公司做网站自己注册域名工程项目建设程序
  • 外贸网站图片素材线上推销的方法
  • 计算机网站开发职业定位安阳市建设工程招标投标协会网站
  • 福建省网站建设方案书烟台卓通网络科技有限公司
  • 国外精品成品网站1688天津网站建设的公司哪家好
  • 继续接入备案 增加网站 区别中小企业融资服务平台
  • 什么网站可以做线上小游戏网站费用多少钱一年
  • 广东高端网站设计公司单机多wordpress
  • 中国建设银行培训网站徐州企业建站
  • 佛山网站维护个人网站有什么缺点
  • 网站seo综合诊断六安马启兵胡冰倩婚礼
  • 建立企业网站的技能郑州网站建设定制开发
  • 驻马店营销型网站建设优化推广怎样加强文化建设