做营销看的网站有哪些,wordpress域名变了迁移,网站建设架构图,wordpress安装好后以下内容为结合李沐老师的课程和教材补充的学习笔记#xff0c;以及对课后练习的一些思考#xff0c;自留回顾#xff0c;也供同学之人交流参考。
本节课程地址#xff1a;填充和步幅_哔哩哔哩_bilibili 代码实现_哔哩哔哩_bilibili
本节教材地址#xff1a;6.3. 填充和…以下内容为结合李沐老师的课程和教材补充的学习笔记以及对课后练习的一些思考自留回顾也供同学之人交流参考。
本节课程地址填充和步幅_哔哩哔哩_bilibili 代码实现_哔哩哔哩_bilibili
本节教材地址6.3. 填充和步幅 — 动手学深度学习 2.0.0 documentation (d2l.ai)
本节开源代码...d2l-zhpytorchchapter_multilayer-perceptronspadding-and-strides.ipynb 填充和步幅
在前面的例子 图6.2.1 中输入的高度和宽度都为3卷积核的高度和宽度都为2生成的输出表征的维数为2×2。 正如我们在 6.2节 中所概括的那样假设输入形状为 卷积核形状为 那么输出形状将是 。 因此卷积的输出形状取决于输入形状和卷积核的形状。
还有什么因素会影响输出的大小呢本节我们将介绍填充padding和步幅stride。假设以下情景 有时在应用了连续的卷积之后我们最终得到的输出远小于输入大小。这是由于卷积核的宽度和高度通常大于1所导致的。比如一个240 × 240像素的图像经过10层5 × 5的卷积后将减少到200 × 200像素。如此一来原始图像的边界丢失了许多有用信息。而填充是解决此问题最有效的方法 有时我们可能希望大幅降低图像的宽度和高度。例如如果我们发现原始的输入分辨率十分冗余。步幅则可以在这类情况下提供帮助。
填充
如上所述在应用多层卷积时我们常常丢失边缘像素。 由于我们通常使用小卷积核因此对于任何单个卷积我们可能只会丢失几个像素。 但随着我们应用许多连续卷积层累积丢失的像素数就多了。 解决这个问题的简单方法即为填充padding在输入图像的边界填充元素通常填充元素是0。 例如在 图6.3.1 中我们将3 × 3输入填充到5 × 5那么它的输出就增加为4 × 4。阴影部分是第一个输出元素以及用于输出计算的输入和核张量元素 。 通常如果我们添加 行填充大约一半在顶部一半在底部和 列填充左侧大约一半右侧一半则输出形状将为 这意味着输出的高度和宽度将分别增加 和 。
在许多情况下我们需要设置 和 使输入和输出具有相同的高度和宽度。 这样可以在构建网络时更容易地预测每个图层的输出形状。假设 是奇数我们将在高度的两侧填充 行。 如果 是偶数则一种可能性是在输入顶部填充 行向上取整在底部填充 行向下取整。同理我们填充宽度的两侧。
卷积神经网络中卷积核的高度和宽度通常为奇数例如1、3、5或7。 选择奇数的好处是保持空间维度的同时我们可以在顶部和底部填充相同数量的行在左侧和右侧填充相同数量的列。
此外使用奇数的核大小和填充大小也提供了书写上的便利。对于任何二维张量X当满足 1. 卷积核的大小是奇数 2. 所有边的填充行数和列数相同 3. 输出与输入具有相同高度和宽度 则可以得出输出Y[i, j]是通过以输入X[i, j]为中心与卷积核进行互相关计算得到的。
比如在下面的例子中我们创建一个高度和宽度为3的二维卷积层并(在所有侧边填充1个像素)。给定高度和宽度为8的输入则输出的高度和宽度也是8。
import torch
from torch import nn# 为了方便起见我们定义了一个计算卷积层的函数。
# 此函数初始化卷积层权重并对输入和输出提高和缩减相应的维数
def comp_conv2d(conv2d, X):# 这里的11表示批量大小和通道数都是1X X.reshape((1, 1) X.shape)Y conv2d(X)# 省略前两个维度批量大小和通道return Y.reshape(Y.shape[2:])# 请注意这里每边都填充了1行或1列因此总共添加了2行或2列
conv2d nn.Conv2d(1, 1, kernel_size3, padding1)
X torch.rand(size(8, 8))
comp_conv2d(conv2d, X).shape
输出结果 torch.Size([8, 8])
当卷积核的高度和宽度不同时我们可以[填充不同的高度和宽度]使输出和输入具有相同的高度和宽度。在如下示例中我们使用高度为5宽度为3的卷积核高度和宽度两边的填充分别为2和1。
conv2d nn.Conv2d(1, 1, kernel_size(5, 3), padding(2, 1))
comp_conv2d(conv2d, X).shape
输出结果 torch.Size([8, 8])
步幅
在计算互相关时卷积窗口从输入张量的左上角开始向下、向右滑动。 在前面的例子中我们默认每次滑动一个元素。 但是有时候为了高效计算或是缩减采样次数卷积窗口可以跳过中间位置每次滑动多个元素。
我们将每次滑动元素的数量称为步幅stride。到目前为止我们只使用过高度或宽度为1的步幅那么如何使用较大的步幅呢 图6.3.2 是垂直步幅为3水平步幅为2的二维互相关运算。 着色部分是输出元素以及用于输出计算的输入和内核张量元素 、 。
可以看到为了计算输出中第一列的第二个元素和第一行的第二个元素卷积窗口分别向下滑动三行和向右滑动两列。但是当卷积窗口继续向右滑动两列时没有输出因为输入元素无法填充窗口除非我们添加另一列填充。 通常当垂直步幅为 、水平步幅为 时输出形状为 如果我们设置了 和 则输出形状将简化为 。 更进一步如果输入的高度和宽度可以被垂直和水平步幅整除则输出形状将为 通常步幅取2。
下面我们[将高度和宽度的步幅设置为2]从而将输入的高度和宽度减半。
conv2d nn.Conv2d(1, 1, kernel_size3, padding1, stride2)
comp_conv2d(conv2d, X).shape
输出结果 torch.Size([4, 4])
接下来看(一个稍微复杂的例子)。
conv2d nn.Conv2d(1, 1, kernel_size(3, 5), padding(0, 1), stride(3, 4))
comp_conv2d(conv2d, X).shape
输出结果 torch.Size([2, 2])
为了简洁起见当输入高度和宽度两侧的填充数量分别为 和 时我们称之为填充 。当 时填充是 。同理当高度和宽度上的步幅分别为 和 时我们称之为步幅 。特别地当 时我们称步幅为 。默认情况下填充为0步幅为1。在实践中我们很少使用不一致的步幅或填充也就是说我们通常 和 。
小结
填充可以增加输出的高度和宽度。这常用来使输出与输入具有相同的高和宽。步幅可以减小输出的高和宽例如输出的高和宽仅为输入的高和宽的1/nn是一个大于1的整数。填充和步幅可用于有效地调整数据的维度均为卷积层的超参数。
练习
1. 对于本节中的最后一个示例计算其输出形状以查看它是否与实验结果一致。解 根据
可计算得出输出形状为
取整为 2×2 与实验结果一致。
2. 在本节中的实验中试一试其他填充和步幅组合。解 比如设置卷积核尺寸为3×5高度两侧填充为2宽度两侧填充为1高度步幅为4宽度步幅为1当输入尺寸为8×8时输出尺寸应为3×6。 代码如下
conv2d nn.Conv2d(1, 1, kernel_size(3, 5), padding(2, 1), stride(4, 1))
comp_conv2d(conv2d, X).shape
输出结果 torch.Size([3, 6])
3. 对于音频信号步幅2说明什么解 说明在时间轴上每隔一个样本进行一次卷积这么做可以提高计算效率和频率分辨率但可能会牺牲一些时间分辨率和信号细节。
4. 步幅大于1的计算优势是什么解 当步幅1时可以在卷积核尺寸较小的情况下以更少的计算量和层数实现输入到输出尺寸的快速降维这种做法可以显著降低模型复杂度、减少内存使用。