|
|
@ -0,0 +1,17 @@
|
|
|
|
|
|
|
|
1.卷积神经网络的简介
|
|
|
|
|
|
|
|
卷积神经网络是在图像处理方面广泛应用的一种深度学习网络结构。
|
|
|
|
|
|
|
|
卷积神经网络是在上个世纪60年代由Hubei和Wiesel在研宄猫脑皮
|
|
|
|
|
|
|
|
层时发现部分神经元的特殊构造可以使反馈神经网络简便化,从而
|
|
|
|
|
|
|
|
提出了卷积神经网络。卷积神经网络不需要对原始图片进行预处理、
|
|
|
|
|
|
|
|
复杂的特征提取等问题,卷积层卷积运算代替了传统图像中的矩阵
|
|
|
|
|
|
|
|
乘法运算,避免了复杂的计算,同时其共享网络结构,参数较少,
|
|
|
|
|
|
|
|
不仅降低神经网络的复杂度而且降低了计算量,从而使卷积神经网
|
|
|
|
|
|
|
|
络能获得较好的提取图片的特征效果。鉴于卷积神经网络的众多优
|
|
|
|
|
|
|
|
点,使它在图像识别,语音识别上得到了广泛的应用,成为深度学
|
|
|
|
|
|
|
|
习的一个热门方向。基于 CNN 的经典神经网络有 LeNet5、AlexNet、
|
|
|
|
|
|
|
|
GoogLeNet等。LeNet5作为诞生较早的CNN,采用了 ReLU 激活
|
|
|
|
|
|
|
|
函数,加入了 Dropout 层,并且扩充了训练 的数据量。但是AlexNet
|
|
|
|
|
|
|
|
只有八层,前五层为卷积层, 后三层为全连接层,网络深度不够,
|
|
|
|
|
|
|
|
且丢弃池化层易 发生过拟合的问题。 GoogLeNet给CNN注入模块
|
|
|
|
|
|
|
|
化思想,使用1×1的卷积来进行升降维,其稀疏连接结构提高了网
|
|
|
|
|
|
|
|
络对各种 复杂图像的适应性,但应用于字符识别计算时间偏长
|