网络结构来源:https://www.jianshu.com/p/085f4c8256f1
resnet18剪枝策略:
1.只剪basicblock的bn1相关层通道
2.同时剪basicblock的bn1和bn2相关层通道,其中bn2剪枝需要注意上下层通道一致性
resnet50剪枝策略: 1.只剪bottleneck的bn1和bn2相关层的通道 2.同时剪bottleneck的bn1、bn2和bn3相关层通道,其中bn2剪枝需要注意上下层通道一致性
关于通道一致性:以resnet18为例,每个bn1、bn2剪10个通道,剪bn2会出现重复剪的情况,需要手动调整。
resnet18调整示例代码:
resnet50调整示例代码
网络解读:
resnetv1:Conv-BN-ReLU
resnetv2:BN-ReLU-Conv
resnet18v2剪枝策略:
1.只剪basicblock的bn2相关层通道
2.同时剪basicblock的bn1和bn2相关层通道,其中bn1剪枝需要注意上下层通道一致性
保持通道一致性resnet18v2调整示意代码:
网络解读:https://zhuanlan.zhihu.com/p/
简单实现:
剪枝策略同上。
网络解读:https://zhuanlan.zhihu.com/p/ 结构上和resnet50基本上一样,通道多一点而已,最大的区别就是3x3的卷积使用分组卷积。
剪枝总体思路和resnet50差不多,但要注意分组卷积,因为目前使用的剪枝工具不支持:
1.使用以上等效结构,按照resnet50剪枝来剪
2.不使用等效结构,怎么解决分组问题?因为剪了某组的通道,组数变了,输入输出通道也不能倍组整除了:
添加判断条件,根据网络结构修改剪枝数量,并且重新计算组数,部分代码如下,32是根据具体网络通道参数来的
v1、v2、v3网络解读:https://zhuanlan.zhihu.com/p/
与resnet比较
剪枝策略,类似于resnet结构: 1.shortcut相关层不减,注意前几个Conv-BN-ReLU不要剪。 2.shortcut和Conv-BN-ReLU都剪(前几层除外),注意保持输入和输出的通道数量一致。
网络解读:https://zhuanlan.zhihu.com/p/ v1的结构如图(a)、(b)
v2的结构如图©、(d)
shufflenetv2 torchvision里面的结构是重复多个[4,8,4],每组第一个是(d),剩下的是©
剪枝策略: 剪(d)右边的第一个1x1conv和3x3DWConv
网络解读:https://zhuanlan.zhihu.com/p/
剪枝思路:
1.涉及分支相关的层都不减
2.类似于resnet结构,有shortcut的相关层(middle flow的第三个SeparableConv)都不剪。
3.middle flow的第三个SeparableConv剪,但是middle flow的上一层不剪。
网络解读:https://zhuanlan.zhihu.com/p/
剪枝策略:
1.注意BN-ReLU-Conv的顺序,剪每一个denselayer的bn2。
2.连同bn1、bn2一起剪,剪枝率需要设置的非常小,因为每个后面层的bn1剪枝都会影响前面通道的减少。
训练太慢了,可以剪枝,同上。
参考代码:https://github.com/supernotman/Faster-RCNN-with-torchvision 算法解读:https://zhuanlan.zhihu.com/p/
到此这篇resnet50和resnet18(resnet50和resnet18区别)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!
版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/rfx/66832.html