打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
卷积层(3)

CNN网络基础结构


  卷积层(3)

上回说完了卷积层的线性部分,这次来聊聊非线性部分。其实在此之前我们在聊全连接层的时候就已经说过两个非线性部分的函数:

而且进入了深度网络学习的过程中,前辈们又发现了另一个好用的非线性函数,那就是ReLU,全称Rectify Linear Unit。它的函数形式是这样的:

def relu(x):

return x if x > 0 else 0

函数的形状大家也可以想象。在负数部分是一条和x轴平行的水平线,在正数部分是一条斜率为1的直线。这个函数一眼看去就觉得不是很复杂,很前面的两位比起来似乎只需要小学数学就可以明白,可是它却是现在最火的非线性函数,而且以它为基础,前辈们还演化出了一些变形函数。那些变形函数在这里就不提了。

话说前面两个函数已经称霸江湖许多年了,为什么一个新来的简单到不行的函数会抢尽风头?这也就是我们下面要聊的话题。


梯度消失

梯度消失是最让大家痛心的事情,这其中要数Sigmoid函数做得差了。早期的神经网络主要是浅层神经网络,在反向传导的过程中,因为中间经过的结构不算多,所以下层的网络得到的残差基本来还算是“新鲜”的。而随着深度学习的发展,网络层数的不断加深,反向传导逐渐变成了一个“漫长”的事情。从最上层的Loss开始向下传导,一路上会有各种各样的数据改变残差的数量,等到了下层的网络手上,这些被加工后的残差有时候会变得面目全非。

那么是怎样的面目全非法呢?这主要体现在数值的范围上。我们回顾一下两种经典的非线性函数的求导公式:

sigmoid:

 其中函数值的范围是(0,1)

tanh:

 其中函数值的范围是(-1,1)

我们把两个函数画出来,就是这个样子:

从图上可以看出,tanh的导数的数值总体上还算不错,有大有小,但是终究是不大于1的。而sigmoid就比较可怜了,最大也就只有0.25。前面我们聊过关于多层神经网络求导的问题。当导数通过非线性部分到达下面的线性部分时,非线性的函数同样会改变导数的数值。上面的图就是他们改变的数量。

这时候sigmoid就显得十分渺小了,因为它最好情况下也会把传递的导数数值除以4。对于不深的网络,这点损失还算不上什么,但是对于深层的神经网络,这将会产生巨大的灾难,上层的网络拿到的梯度是比较大的,下层网络拿到的梯度却明显小很多。这种别人吃肉我喝汤的事情自然会让底层网络发育不良,很容易让深层网络无法发挥出应有的效果。

为了验证这个事情,这次拿出一个不太深的网络先举个例子。为了节省时间这里没有自己写代码,而是采用了知名的开源项目caffe。在其给出的例子——MNist的求解模型lenet的基础上稍作改动。关于MNist的内容前面介绍过,关于模型的结构,可以看下面:

  • 输入:1*28*28

  • 卷积:20*5*5

  • 非线性:

  • Max Pooling:2*2

  • 卷积:50*5*5

  • 非线性:

  • Max Pooling:2*2

  • 全连接:500

  • 非线性:

  • 全连接:10

  • Softmax:

简单来说,就是2层卷积,2层max pooling,2层全连接。其中的非线性部分将分别换成上面提到的三种非线性函数。除此之外,其他的参数设定与例子中完全一致,大家也可以自己去实验下。

首先来看一下训练数据的Loss和迭代轮数的关系图:

可以看出,在这个问题上,sigmoid明显会弱一些,tanh和relu相近。当然到最后sigmoid似乎差得也不多。

接下来是测试集的Loss:

这个图的效果和前面的训练图类似。看到这里我们可以确定:对于这个问题,在其他变量保持一致的情况下,使用sigmoid的非线性函数训练效果会若些。那么上面提到的参数训练的问题呢?

关于观测参数更新这个问题,caffe已经为我们想好了。在solver配置文件中加入下面这一行配置就可以查看前向后向的数据和参数信息了:

debug_info: true

这里我们主要关注的是后向的参数。后向为我们展示的是bottom_data的diff和param的diff。这里我们主要关注的是param的diff,因为这是最终落到参数更新上的数量。Debug信息显示的是同一个参数的平均值。虽然是平均值,但是它也有一定的价值,而它也足以分析出问题来。

首先是sigmoid的四个主要层的参数更新量:

从图中可以明显看出一个规律,那就是越靠上的层参数更新的量越大,越靠下的参数更新量越小。这和我们刚才的描述是一致的。那么其他的函数表现如何呢?接下来是tanh的:

可以看出tanh的参数更新整体上好了许多。最起码不是越靠上越大了,这也说明在这个问题中tanh不存在梯度消失的问题,那么relu呢?

relu的结果同样没有出现梯度消失的问题,而且它的四条线距离和tanh相比更相近一些。

通过上面的分析,我们发现了sigmoid确实不适合深度学习模型,虽然它的函数曲线和人的神经反应很相似,但是在深度学习上它确实不太好用。这也是件无可奈何的事情,不过它还是在很多浅层模型上发挥着巨大的作用,所以它不会离开我们的视线的。

计算简单

关于这个部分……我想就不用多说了。上面表现良好的tanh和relu,哪个好算大家一目了然。在效果相近的情况下,自然是选择简单的函数。

稀疏性

很多前辈在提到了relu时,同时提到了它的稀疏性。因为它强行把小于0的部分截断,这样数据中就会出现很多0。这些0再乘以任何数都等于0,无形中相当于减少了数据的维度。再小的数据也比不上一个0来的实在,如果配上CNN中另一个重量级元素max pooling层,可以把这些为0的数据直接清除掉,这样数据的维度就可以进一步地压缩了。

relu函数还有一个很奇特的地方,那就是它看上去是一个非线性层,实际上操作起来却有点像一个线性层。对于线性部分的输出,最终的结果就好像左乘一个非0即1的对角阵:

前面在分析非线性层的作用中,曾经有一条就是它使得深层网络变得有意义。这一点relu是可以做到的。但是它的效果还是像把输入数据做了线性投影一样,而不是非线性变换。relu看上去简单,可是实际上它能够在复杂的网络中有一席之地,还是有它存在的道理的。当然它也有它的问题,关于它的问题以后再说。

卷积层的基本结构也就到这了,

请继续关注高教帮

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
激活函数小结
常用激活函数总结
深度学习激活函数们
深入了解神经网络
神经网络中的激活函数选择与优化方法研究
深度学习面试100题(第16-20题)
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服