当前位置:网站首页 > 软件测试基础 > 正文

cnn神经网络模型(cnn神经网络的基础假设)



卷积神经网络(CNN)的简单实现(MNIST)

卷积神经网络(CNN)的基础介绍见,这里主要以代码实现为主。

         CNN是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。

        以MNIST作为数据库,仿照LeNet-5和tiny-cnn(  ) 设计一个简单的7层CNN结构如下:

         输入层Input:神经元数量32*32=1024;

         C1层:卷积窗大小5*5,输出特征图数量6,卷积窗种类6,输出特征图大小28*28,可训练参数(权值+阈值(偏置))5*5*6+6=150+6,神经元数量28*28*6=4704;

         S2层:卷积窗大小2*2,输出下采样图数量6,卷积窗种类6,输出下采样图大小14*14,可训练参数1*6+6=6+6,神经元数量14*14*6=1176;

         C3层:卷积窗大小5*5,输出特征图数量16,卷积窗种类6*16=96,输出特征图大小10*10,可训练参数5*5*(6*16)+16=2400+16,神经元数量10*10*16=1600;

         S4层:卷积窗大小2*2,输出下采样图数量16,卷积窗种类16,输出下采样图大小5*5,可训练参数1*16+16=16+16,神经元数量5*5*16=400;

         C5层:卷积窗大小5*5,输出特征图数量120,卷积窗种类16*120=1920,输出特征图大小1*1,可训练参数5*5*(16*120)+120=48000+120,神经元数量1*1*120=120;

         输出层Output:卷积窗大小1*1,输出特征图数量10,卷积窗种类120*10=1200,输出特征图大小1*1,可训练参数1*(120*10)+10=1200+10,神经元数量1*1*10=10。

         下面对实现执行过程进行描述说明:

1.      从MNIST数据库中分别获取训练样本和测试样本数据:

(1)、原有MNIST库中图像大小为28*28,这里缩放为32*32,数据值范围为[-1,1],扩充值均取-1;总共60000个32*32训练样本,10000个32*32测试样本;

(2)、输出层有10个输出节点,在训练阶段,对应位置的节点值设为0.8,其它节点设为-0.8.

2.        初始化权值和阈值(偏置):权值就是卷积图像,每一个特征图上的神经元共享相同的权值和阈值,特征图的数量等于阈值的个数

(1)、权值采用uniform rand的方法初始化;

(2)、阈值均初始化为0.

3.      前向传播:根据权值和阈值,主要计算每层神经元的值

(1)、输入层:每次输入一个32*32数据。

(2)、C1层:分别用每一个5*5的卷积图像去乘以32*32的图像,获得一个28*28的图像,即对应位置相加再求和,stride长度为1;一共6个5*5的卷积图像,然后对每一个神经元加上一个阈值,最后再通过tanh激活函数对每一神经元进行运算得到最终每一个神经元的结果。

(3)、S2层:对C1中6个28*28的特征图生成6个14*14的下采样图,相邻四个神经元分别进行相加求和,然后乘以一个权值,再求均值即除以4,然后再加上一个阈值,最后再通过tanh激活函数对每一神经元进行运算得到最终每一个神经元的结果。

(4)、C3层:由S2中的6个14*14下采样图生成16个10*10特征图,对于生成的每一个10*10的特征图,是由6个5*5的卷积图像去乘以6个14*14的下采样图,然后对应位置相加求和,然后对每一个神经元加上一个阈值,最后再通过tanh激活函数对每一神经元进行运算得到最终每一个神经元的结果。

(5)、S4层:由C3中16个10*10的特征图生成16个5*5下采样图,相邻四个神经元分别进行相加求和,然后乘以一个权值,再求均值即除以4,然后再加上一个阈值,最后再通过tanh激活函数对每一神经元进行运算得到最终每一个神经元的结果。

(6)、C5层:由S4中16个5*5下采样图生成120个1*1特征图,对于生成的每一个1*1的特征图,是由16个5*5的卷积图像去乘以16个5*5的下采用图,然后相加求和,然后对每一个神经元加上一个阈值,最后再通过tanh激活函数对每一神经元进行运算得到最终每一个神经元的结果。

(7)、输出层:即全连接层,输出层中的每一个神经元均是由C5层中的120个神经元乘以相对应的权值,然后相加求和;然后对每一个神经元加上一个阈值,最后再通过tanh激活函数对每一神经元进行运算得到最终每一个神经元的结果。

4.      反向传播:主要计算每层神经元、权值和阈值的误差,以用来更新权值和阈值

(1)、输出层:计算输出层神经元误差;通过mse损失函数的导数函数和tanh激活函数的导数函数来计算输出层神经元误差。

(2)、C5层:计算C5层神经元误差、输出层权值误差、输出层阈值误差;通过输出层神经元误差乘以输出层权值,求和,结果再乘以C5层神经元的tanh激活函数的导数,获得C5层每一个神经元误差;通过输出层神经元误差乘以C5层神经元获得输出层权值误差;输出层误差即为输出层阈值误差。

(3)、S4层:计算S4层神经元误差、C5层权值误差、C5层阈值误差;通过C5层权值乘以C5层神经元误差,求和,结果再乘以S4层神经元的tanh激活函数的导数,获得S4层每一个神经元误差;通过S4层神经元乘以C5层神经元误差,求和,获得C5层权值误差;C5层神经元误差即为C5层阈值误差。

(4)、C3层:计算C3层神经元误差、S4层权值误差、S4层阈值误差;

(5)、S2层:计算S2层神经元误差、C3层权值误差、C3层阈值误差;

(6)、C1层:计算C1层神经元误差、S2层权值误差、S2层阈值误差;

(7)、输入层:计算C1层权值误差、C1层阈值误差.

代码文件:

CNN.hpp:

CNN.cpp:

以上代码主要仿照tiny-cnn的实现,测试发现,识别率较低,应该是某些地方有bug,后面在进行调试。

GitHub:https://github.com/fengbingchun/NN

到此这篇cnn神经网络模型(cnn神经网络的基础假设)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!

版权声明


相关文章:

  • 硬件基础知识总结(硬件基础知识总结与反思)2025-11-05 11:00:06
  • 计算机硬件基础(计算机硬件基础和计算机组成原理一样吗)2025-11-05 11:00:06
  • 操作系统应用基础答案(操作系统应用题答案)2025-11-05 11:00:06
  • 计算机基础实验结果及分析(《计算机基础》实验报告)2025-11-05 11:00:06
  • 网络协议测试工具(软件测试网络协议)2025-11-05 11:00:06
  • 计算机硬件基础书籍(计算机硬件基础书籍哪本好)2025-11-05 11:00:06
  • plc1200视频教程(plc1200入门基础知识)2025-11-05 11:00:06
  • 操作系统基础答案解析(操作系统应用基础答案)2025-11-05 11:00:06
  • oracle零基础视频教程(oracle教程入门精通)2025-11-05 11:00:06
  • 操作系统原理简明基础教程(操作系统原理简明基础教程pdf)2025-11-05 11:00:06
  • 全屏图片