卷积神经网络中十大拍案叫绝的操作 - syou2020/memo GitHub Wiki

卷积神经网络中十大拍案叫绝的操作

启发与思考

现在越来越多的CNN模型从巨型网络到轻量化网络一步步演变,模型准确率也越来越高。现在工业界追求的重点已经不是准确率的提升(因为都已经很高了),都聚焦于速度与准确率的trade off,都希望模型又快又准。因此从原来AlexNet、VGGnet,到体积小一点的Inception、Resnet系列,到目前能移植到移动端的mobilenet、ShuffleNet(体积能降低到0.5mb!),我们可以看到这样一些趋势:

卷积核方面:

    大卷积核用多个小卷积核代替;
    单一尺寸卷积核用多尺寸卷积核代替;
    固定形状卷积核趋于使用可变形卷积核;
    使用1×1卷积核(bottleneck结构)。


卷积层通道方面:

    标准卷积用depthwise卷积代替;
    使用分组卷积;
    分组卷积前使用channel shuffle;
    通道加权计算。

卷积层连接方面:

    使用skip connection,让模型更深;
    densely connection,使每一层都融合上其它层的特征输出(DenseNet)

启发

类比到通道加权操作,卷积层跨层连接能否也进行加权处理?bottleneck + Group conv + channel shuffle + depthwise的结合会不会成为以后降低参数量的标准配置?

⚠️ **GitHub.com Fallback** ⚠️