专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
相关文章推荐
数局  ·  70人聚众淫乱被抓! ·  15 小时前  
CDA数据分析师  ·  【干货】如何用 AI 从0到1 ... ·  4 天前  
CDA数据分析师  ·  【干货】如何用 AI 从0到1 ... ·  5 天前  
CDA数据分析师  ·  被统计公式劝退?这门极简课程让你14天学会用 ... ·  3 天前  
51好读  ›  专栏  ›  数据派THU

12张动图解析深度学习中的卷积网络

数据派THU  · 公众号  · 大数据  · 2017-07-29 19:00

正文

请到「今天看啥」查看全文



图2 二维卷积、扩展速率为2的3核,无padding


它使得系统能够以相同的计算成本提供更广泛的观察范围。扩张卷积在实时分割领域特别受欢迎。 如果你需要更大的观察范围,且无法承受多个卷积或更大的内核,请考虑使用它。


转置卷积(Transposed Convolutions)

(又名反卷积或分段缠绕卷积)


一些人使用反卷积这个名称,这不是特别恰当的,因为它不是一个反卷积。使事情变得更糟糕的反卷积确实存在,但在深度学习领域并不常见。实际的反卷积是反转卷积的过程。想象一下,将图像输入到单个卷积层。现在开始输出,把放置到一个黑盒子里,然后将你的原始图像再次输出。这个黑盒子进行了一个反卷积操作。这就是卷积层的数学反演。


转置的卷积在某种程度上来说是相似的,因为它和一个假设的反卷积层所产生的空间分辨率是相同的。但是,正在执行的实际数学运算在值上是不同的。转置卷积层执行的是常规卷积,但它会恢复其空间变换。


图3 二维卷积无padding,步幅2和内核3


关于这一点你可能会感到困惑,所以让我们来看一个具体的示例。将一个5x5的图像馈送到卷积层。其步幅设置为2,padding禁用,内核为3x3。结果是产生一个2x2的图像。


如果我们想反转这个过程,我们需要反数学运算,以便从我们输入的每个像素中生成9个值。之后,我们以2步幅的设置来遍历输出图像。这将是一个反卷积。


图4 转置的二维卷积无padding,步幅2和内核3


而转置卷积将不会进行此类操作。唯一的共同之处在于它保证输出也将是一个5x5的图像,同时仍然执行正常的卷积运算。为了实现这一点,我们需要在输入上执行一些漂亮的padding。


正如你现在可以想象的,这一步并不会从上面扭转这个过程。 至少不包括数值。


它只是在以往的基础上重建空间分辨率并执行卷积操作。这可能不是数学的反演,但是对于Encoder-Decoder架构来说,它仍然非常有用。这样,我们可以将图像的缩放与卷积相结合,而不是将两个过程单独分开进行。







请到「今天看啥」查看全文