找论文的免费网站,外国网站域名,网站开发外快,西安网站制作平台文章目录 1. Pooling的作用2. 各种不同的Pooling1. max pooling#xff08;最大池化层#xff09;2. average pooling #xff08;平均池化层#xff09;3. Global Average Pooling#xff08;全局平均池化层#xff09;4. mix pooling#xff08;混合池化层#xff09… 文章目录 1. Pooling的作用2. 各种不同的Pooling1. max pooling最大池化层2. average pooling 平均池化层3. Global Average Pooling全局平均池化层4. mix pooling混合池化层5. stochastic pooling(随机池化)6. Local Importance-based pooling局部重要性池化层7. Generalized-mean Polling layerGeM池化层 3. 使用卷积替代池化1. average pool2. max pool 4. 是否需要池化操作 1. Pooling的作用
下采样Down-sampling降维、去冗杂信息扩大感受野Enlarge the receptive field 其实和卷积层的效果是类似的只是卷积核变为了max函数整体而言还是在扩大感受野 提取边缘信息实现特征不变性invariance:translation、rotation、scale(平移、旋转和尺度不变性) 说明上图表示不同水平/垂直位置的值进行池化操作值后得到的结果相同 说明上图表示不同方位角的特征图经过两次pooling之后得到的结果相同 说明 上图表示不同尺度的特征图经过pooling之后仍然得到了相同的结果
添加非线性在一定程度上防止过拟合看到max pooling其实第一个出现脑海中的应该有ReLu激活函数
2. 各种不同的Pooling
1. max pooling最大池化层 y k i j m a x ( p , q ) ∈ R i j x k p q y_{kij} max_{(p,q) \in R_{ij}}x_{kpq} ykijmax(p,q)∈Rijxkpq 其中 y k i j y_{kij} ykij表示第k个特征图有关于矩形区域 R i j R_{ij} Rij的最大池化层的输出值 x k p q x_{kpq} xkpq表示矩形区域中位于位置 x k p q x_{kpq} xkpq的元素。 2. average pooling 平均池化层 y k i j 1 R i j ∑ ( p , q ) ∈ R i j x k p q y_{kij} \frac{1}{R_{ij}}\sum_{(p,q)\in R_{ij}}x_{kpq} ykijRij1(p,q)∈Rij∑xkpq
average pooling和max pooling的数值区别 根据一些理论特征提取的误差主要来源于 (1) 邻域大小受限而造成的估计值方差增大(2) 卷积层参数误差造成估计值均值偏移一般而言average-pooling 可以减小第一种误差最大程度保留图像的背景信息而max-pooling可以减小第二种误差保留更多的纹理信息。
总结
通常我们会倾向于使用max pooling因为max-pooling在直觉上是在做特征选择提取最明显的特征来代替整体而average pooling更像是在做特征融合将不同的特征进行融合在一起了其实是模糊了一些强的特征。
3. Global Average Pooling全局平均池化层
M lin等人提出使用Global Average Pooling层替代最后的全连接层用很小的代价实现了降维其公式同average pooling但是不用划分矩形区域而是在整个特征图中进行操作 4. mix pooling混合池化层 y i j λ . m a x ( p , q ) ∈ R i j x k p q ( 1 − λ ) . 1 ∣ R i j ∣ ∑ ( p , q ) ∈ R i j x k p q y_{ij} \lambda . max_{(p,q)\in R_{ij}}x_{kpq} (1-\lambda).\frac{1}{\vert R_{ij} \vert}\sum_{(p,q)\in R_{ij}}x_{kpq} yijλ.max(p,q)∈Rijxkpq(1−λ).∣Rij∣1(p,q)∈Rij∑xkpq
用随机过程替代常规的确定池化过程在模型训练过程中随机选择max和average pooling方法进行池化在一定程度上有助于防止过拟合说明mix/hybrid pooling方法比传统的max/average pooling方法是更优秀的其需要的额外开销可以忽略不计也不需要进行参数调整可以较为广泛的应用于CNN。
5. stochastic pooling(随机池化)
过程如下
(1) 将矩形内元素除以其sum得到概率矩阵伪(2) 按照概率选取矩阵内数据(3) 按照上面的概率随机采样选择内部数据
说明
随机池化按照特征图内的数值大小进行概率划分但是选择的数字并非最大值一成不变而是根据概率选择原则上仍然是数值越大概率越大但是选择其他值的概率也存在所以范化性也更好。
6. Local Importance-based pooling局部重要性池化层
用处
CNN通常使用下采样来缩小特征空间但是在一些特别的任务中可能会丢失一些重要的细节损失模型精度。使用regional pooling可以一定程度上缓和。操作为在下采样的过程中自动增加特征判别功能 其中F的大小和特征I的大小一致代表每一个点的重要性。图中分别代表的是Average pooling、max pooling和stride为2的convolution。 最大池化对应的值不一定是具有最具区分力的特征步长为2的卷积问题在于固定的采样位置
池化操作可以归纳为 O x ′ , y ′ ∑ ( Δ x , Δ y ) ∈ Ω F ( I ) x Δ x , y Δ y I x Δ x , y Δ y ∑ ( Δ x , Δ y ) ∈ Ω F ( I ) x Δ x , y Δ y O_{x,y} \frac{\sum_{(\Delta x,\Delta y)\in\Omega}F(I)_{x\Delta x,y\Delta y}I_{x\Delta x,y\Delta y}}{\sum_{(\Delta x,\Delta y)\in \Omega}F(I)_{x\Delta x ,y \Delta y}} Ox′,y′∑(Δx,Δy)∈ΩF(I)xΔx,yΔy∑(Δx,Δy)∈ΩF(I)xΔx,yΔyIxΔx,yΔy 局部重要池化结构可以表示为 O x ′ , y ′ ∑ ( Δ x , Δ y ) ∈ Ω I x Δ x , y Δ y e x p ( G ( I ) ) x Δ x , y Δ y ∑ ( Δ x , Δ y ) ∈ Ω e x p ( G ( I ) ) x Δ x , y Δ y O_{x,y} \frac{\sum_{(\Delta x,\Delta y)\in\Omega}I_{x\Delta x,y\Delta y}exp(G(I))_{x\Delta x,y\Delta y}}{\sum_{(\Delta x,\Delta y)\in \Omega}exp(G(I))_{x\Delta x ,y \Delta y}} Ox′,y′∑(Δx,Δy)∈Ωexp(G(I))xΔx,yΔy∑(Δx,Δy)∈ΩIxΔx,yΔyexp(G(I))xΔx,yΔy
a. 下采样的位置需要尽可能地非固定间隔(使用conv替代pooling的问题)b. 重要性函数F需要通过学习获得 说明
Local importance pooling可以自适应和判别地进行特征图地特征汇集丢弃冗余信息。极大地保存了物体地局部细节对于细节敏感的任务至关重要。
7. Generalized-mean Polling layerGeM池化层 [ ( 1 ∣ R i j ∣ ∑ ( p , q ) ∈ R i j x k p q p ) 1 p ] [(\frac{1}{\vert R_{ij} \vert} \sum_{(p,q) \in R_{ij}} x_{kpq}^p)^{\frac{1}{p}}] [(∣Rij∣1(p,q)∈Rij∑xkpqp)p1]
当p 1的时候 相当于平均池化当p ∞ \infty ∞的时候相当于最大池化
说明
其中的参数p是可以学习的一个参数可以通过数据学习到一个比较合适的结果
3. 使用卷积替代池化
1. average pool
conv本身就相当于在求和求对应的平均值即可或者直接sum pooling也是一样如果kernel 2stride 2不加任何其他操作就等价于stride 2的average pooling了
2. max pool
原理 C o n v R E L U M a x P o o l i n g Conv RELU Max Pooling ConvRELUMaxPooling 可以看到如果我们使用conv然后加上一个relu激活函数其得到的结果完美等价于max pooling
4. 是否需要池化操作 卷积操作对位置是非常敏感的而池化操作可以缓解这种敏感性 具体问题具体分析吧增加一个卷积层就操作而言其实是更加简单的而且效果也和max pooling操作相类似所以一般情况下是可以不用max pooling的但是对于一些具体的操作而言是一个trade off的问题。