当前位置:网站首页 > R语言数据分析 > 正文

resnet网络图(resnet34网络)



Deep Residual Learning for Image Recognition原论文名字


resnet34 resnet34结构图_深度学习

网络中的亮点:

1.超深的网络结构(突破1000层)

resnet34 resnet34结构图_resnet34_02

1.2退化问题

解决了梯度消失、爆炸问题后,仍然存在深层网络的效果可能比浅层网络差的现象

resnet34 resnet34结构图_方差_03

  • 对于梯度消失或梯度爆炸问题,ResNet论文提出通过数据的预处理以及在网络中使用 BN(Batch Normalization)层来解决。
  • 对于退化问题,ResNet论文提出了 residual结构(残差结构)来减轻退化问题,下图是使用residual结构的卷积网络,可以看到随着网络的不断加深,效果并没有变差,而是变的更好了。(虚线是train error,实线是test error)

2.提出residual模块

resnet34 resnet34结构图_卷积_04

可以计算一下,假设两个残差结构的输入特征和输出特征矩阵的深度都是256维,如下图:(注意左侧结构的改动)

resnet34 resnet34结构图_resnet34_05

那么两个残差结构所需的参数为:

  • 左侧:3 × 3 × 256 × 256 + 3 × 3 × 256 × 256 = 1 , 179 , 648
  • 右侧:1 × 1 × 256 × 64 + 3 × 3 × 64 × 64 + 1 × 1 × 64 × 256 = 69 , 632
    注:CNN参数个数 = 卷积核尺寸×卷积核深度 × 卷积核组数 = 卷积核尺寸 × 输入特征矩阵深度 × 输出特征矩阵深度
    明显搭建深层网络时,使用右侧的残差结构更合适。




resnet34 resnet34结构图_卷积核_06

以34层网络结构为例

resnet34 resnet34结构图_卷积_07

首先是一个77的卷积层,第二层一个33的最大池化下采样操作,在这里又将残差结构分为conv2_x一系列残差结构(对应图中使用了三个),conv3_x一系列残差结构(4个),conv4_x一系列残差结构(6个),conv5_x一系列残差结构(3个),然后就是平均池化下采样和全连接层。

residual结构

resnet34 resnet34结构图_卷积_08

resnet34 resnet34结构图_卷积_09

3.使用Batch Normalization加速训练(丢弃dropout)

resnet34 resnet34结构图_卷积核_10

resnet34 resnet34结构图_卷积_11

注意的是这里的计算是一批数据所有在这一通道上的均值和方差

resnet34 resnet34结构图_resnet34_12

下面是BN求解的一个实例,得到的是矩阵结果

resnet34 resnet34结构图_卷积_13

resnet34 resnet34结构图_深度学习_14

到此这篇resnet网络图(resnet34网络)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!

版权声明


相关文章:

  • ar怎么读英语(architect怎么读英语)2025-12-07 18:18:09
  • lvcreate -n参数(lvcreate -l 100%)2025-12-07 18:18:09
  • vconsole是什么意思(vcorn什么意思)2025-12-07 18:18:09
  • entware命令(enable命令的作用)2025-12-07 18:18:09
  • rmsprop是什么算法(rmsprop算法中文名)2025-12-07 18:18:09
  • 多级列表每一章重新编号怎么设(多级列表每一章重新编号怎么设word)2025-12-07 18:18:09
  • spring教程 w3school(spring教程视频推荐)2025-12-07 18:18:09
  • spring的入门程序详细过程(spring integration入门)2025-12-07 18:18:09
  • orecal甲骨文(orecal甲骨文是干嘛的)2025-12-07 18:18:09
  • vgasave驱动(vgadriver是什么驱动)2025-12-07 18:18:09
  • 全屏图片