chap6 卷积神经网络(3) 填充和步幅

假设输入形状为 nh×nwn_h\times n_w,卷积核形状为 kh×kwk_h\times k_w,那么输出形状将是 (nhkh+1)×(nwkw+1)(n_h-k_h+1) \times (n_w-k_w+1)
因此,卷积的输出形状取决于输入形状和卷积核的形状。

还有什么因素会影响输出的大小呢?本节我们将介绍 填充(padding)和 步幅 (stride)。

假设以下情景:
有时,在应用了连续的卷积之后,我们最终得到的输出远小于输入大小。这是由于卷积核的宽度和高度通常大于 11 所导致的。比如,一个 240×240240 \times 240 像素的图像,经过 10105×55 \times 5 的卷积后,将减少到 200×200200 \times 200 像素。如此一来,原始图像的边界丢失了许多有用信息。 而填充*** 是解决此问题最有效的方法。
有时,我们可能希望
大幅降低图像的宽度和高度
*。例如,如果我们发现原始的输入分辨率十分冗余。 ***步幅 ***则可以在这类情况下提供帮助。

本章代码复现

填充

通常,如果我们添加 php_h 行填充(大约一半在顶部,一半在底部)和 pwp_w 列填充(左侧大约一半,右侧一半),则输出形状将为

(nhkh+ph+1)×(nwkw+pw+1)(n_h-k_h+p_h+1)\times(n_w-k_w+p_w+1)。

这意味着输出的高度和宽度将分别增加 php_hpwp_w

在许多情况下,我们需要设置 ph=kh1p_h=k_h-1pw=kw1p_w=k_w-1,使输入和输出具有相同的高度和宽度。

这样可以在构建网络时更容易地预测每个图层的输出形状。

假设 khk_h 是奇数,我们将在高度的两侧填充 ph/2p_h/2 行。

如果 khk_h 是偶数,则一种可能性是在输入顶部填充 ph/2\lceil p_h/2\rceil 行,在底部填充 ph/2\lfloor p_h/2\rfloor 行。同理,我们填充宽度的两侧。

卷积神经网络中卷积核的高度和宽度通常为奇数,例如 1、3、5 或 7。
选择奇数的好处是,保持空间维度的同时,我们可以在顶部和底部填充相同数量的行,在左侧和右侧填充相同数量的列。

此外,使用奇数核和填充也提供了书写上的便利。对于任何二维张量 X,当满足:

  1. 内核的大小是奇数;

  2. 所有边的填充行数和列数相同;

  3. 输出与输入具有相同高度和宽度

则可以得出:输出 Y[i, j] 是通过以输入 X[i, j] 为中心,与卷积核进行互相关计算得到的。

步幅

  • 填充减小的输出大小与层数线性相关

    • 需要大量计算才能得到较小的输出
  • 步幅是指行/列的滑动步长

通常,当垂直步幅为 shs_h 、水平步幅为 sws_w 时,输出形状为

(nhkh+ph+sh)/sh×(nwkw+pw+sw)/sw.\lfloor(n_h-k_h+p_h+s_h)/s_h\rfloor \times \lfloor(n_w-k_w+p_w+s_w)/s_w\rfloor.

如果我们设置了 ph=kh1p_h=k_h-1pw=kw1p_w=k_w-1,则输出形状将简化为

(nh+sh1)/sh×(nw+sw1)/sw\lfloor(n_h+s_h-1)/s_h\rfloor \times \lfloor(n_w+s_w-1)/s_w\rfloor

更进一步,如果输入的高度和宽度可以被垂直和水平步幅整除,则输出形状将为 (nh/sh)×(nw/sw)(n_h/s_h) \times (n_w/s_w)

小结

  • 填充和步幅是卷积神经网络的超参数。
  • 填充可以增加输出的高度和宽度。这常用来使输出与输入具有相同的高和宽。
  • 步幅可以减小输出的高和宽,例如输出的高和宽仅为输入的高和宽的 1/n1/nnn 是一个大于 11 的整数)。
  • 填充和步幅可用于有效地调整数据的维度。