不规则卷积神经网咯

来自中科院自动化所的“不规则卷积神经网络”

文章链接: 《Irregular Convolutional Neural Networks》

从直观上来看,一个不规则的卷积核(其shape可以自动学习)似乎更适应输入的pattern。 但考虑更多方面,比如学习效率、操作复杂度这些因素。个人认为,不规则卷积目前不是一个很有应用价值的工作。

1. 方法介绍

上图中,图(a)表示一个不规则卷积; 图(b)表示,尽管该不规则卷积可由两个3x3卷积联合操作得到,但所需要的卷积核参数较多;图(c)表示不规则卷积的学习方法,即可以由规则卷积初始化,然后不断学习位置变换。

2. 要点介绍

(1)如何描述一个不规则卷积核?

为了描述一个不规则卷积核,需要在原有的权重信息W的基础上增加一个位置信息P。

如下图所示,P描述的是每一个权重的具体位置。

(2)如何学习一个不规则卷积核?

学习的过程其实就是一个BP的过程:“参与才能求导,求导就能更新。”

那么位置信息如何参与到网络的计算中呢? 双线性插值。

具体的,根据不规则卷积核的位置,对输入进行双线性插值变换,然后通过矩阵乘法完成不规则卷积。整个操作如下图:

下式为双线性插值,据此可以对位置信息进行求导更新。

3. 分析

  • (1)参数冗余增加。 一个同样大小的不规则卷积核和规则卷积核,前者要比后者多2倍的参数用来记录参数生效位置。
  • (2)训练复杂度增加。 需要学习更多间接参数。
  • (3)计算复杂度增加。 如果有N个不同shape的卷积核,则需要对输入做N次不同的双线性插值。
相关文章

相关标签/搜索