卷积神经网络-谷歌围棋机器人科普

上传人:ji****72 文档编号:25359678 上传时间:2017-12-13 格式:DOCX 页数:13 大小:1.46MB
返回 下载 相关 举报
卷积神经网络-谷歌围棋机器人科普_第1页
第1页 / 共13页
卷积神经网络-谷歌围棋机器人科普_第2页
第2页 / 共13页
卷积神经网络-谷歌围棋机器人科普_第3页
第3页 / 共13页
卷积神经网络-谷歌围棋机器人科普_第4页
第4页 / 共13页
卷积神经网络-谷歌围棋机器人科普_第5页
第5页 / 共13页
点击查看更多>>
资源描述

《卷积神经网络-谷歌围棋机器人科普》由会员分享,可在线阅读,更多相关《卷积神经网络-谷歌围棋机器人科普(13页珍藏版)》请在金锄头文库上搜索。

1、自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过 theano 和 cuda-convnet、cuda-convnet2。为了增进 CNN 的理解和使用,特写此博文,以其与人交流,互有增益。正文之前,先说几点自己对于 CNN 的感触。先明确一点就是,Deep Learning 是全部深度学习算法的总称,CNN 是深度学习算法在图像处理领域的一个应用。 第一点,在学习 Deep learning 和 CNN 之前,总以为它们是很了不得的知识,总以为它们能解决很多问题,学习了之后,才知道它们不过与其他机器学习算法如

2、 svm 等相似,仍然可以把它当做一个分类器,仍然可以像使用一个黑盒子那样使用它。 第二点,Deep Learning 强大的地方就是可以利用网络中间某一层的输出当做是数据的另一种表达,从而可以将其认为是经过网络学习到的特征。基于该特征,可以进行进一步的相似度比较等。 第三点,Deep Learning 算法能够有效的关键其实是大规模的数据,这一点原因在于每个 DL 都有众多的参数,少量数据无法将参数训练充分。接下来话不多说,直接奔入主题开始 CNN 之旅。1. 神经网络首先介绍神经网络,这一步的详细可以参考资源 1。简要介绍下。神经网络的每个单元如下:其对应的公式如下:其中,该单元也可以被称

3、作是 Logistic 回归模型。当将多个单元组合起来并具有分层结构时,就形成了神经网络模型。下图展示了一个具有一个隐含层的神经网络。 其对应的公式如下:比较类似的,可以拓展到有 2,3,4,5, 个隐含层。神经网络的训练方法也同 Logistic 类似,不过由于其多层性,还需要利用链式求导法则对隐含层的节点进行求导,即梯度下降+链式求导法则,专业名称为反向传播。关于训练算法,本文暂不涉及。2 卷积神经网络在图像处理中,往往把图像表示为像素的向量,比如一个 10001000 的图像,可以表示为一个 1000000 的向量。在上一节中提到的神经网络中,如果隐含层数目与输入层一样,即也是 1000

4、000 时,那么输入层到隐含层的参数数据为10000001000000=1012,这样就太多了,基本没法训练。所以图像处理要想练成神经网络大法,必先减少参数加快速度。就跟辟邪剑谱似的,普通人练得很挫,一旦自宫后内力变强剑法变快,就变的很牛了。2.1 局部感知卷积神经网络有两种神器可以降低参数数目,第一种神器叫做局部感知野。一般认为人对外界的认知是从局部到全局的,而图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。网络部分连通的思想,也是受启发于生物学里

5、面的视觉系统结构。视觉皮层的神经元就是局部接受信息的(即这些神经元只响应某些特定区域的刺激)。如下图所示:左图为全连接,右图为局部连接。 在上右图中,假如每个神经元只和 1010 个像素值相连,那么权值数据为1000000100 个参数,减少为原来的万分之一。而那 1010 个像素值对应的1010 个参数,其实就相当于卷积操作。2.2 参数共享但其实这样的话参数仍然过多,那么就启动第二级神器,即权值共享。在上面的局部连接中,每个神经元都对应 100 个参数,一共 1000000 个神经元,如果这 1000000 个神经元的 100 个参数都是相等的,那么参数数目就变为 100了。怎么理解权值共

6、享呢?我们可以这 100 个参数(也就是卷积操作)看成是提取特征的方式,该方式与位置无关。这其中隐含的原理则是:图像的一部分的统计特性与其他部分是一样的。这也意味着我们在这一部分学习的特征也能用在另一部分上,所以对于这个图像上的所有位置,我们都能使用同样的学习特征。更直观一些,当从一个大尺寸图像中随机选取一小块,比如说 8x8 作为样本,并且从这个小块样本中学习到了一些特征,这时我们可以把从这个 8x8 样本中学习到的特征作为探测器,应用到这个图像的任意地方中去。特别是,我们可以用从 8x8 样本中所学习到的特征跟原本的大尺寸图像作卷积,从而对这个大尺寸图像上的任一位置获得一个不同特征的激活值

7、。如下图所示,展示了一个 33 的卷积核在 55 的图像上做卷积的过程。每个卷积都是一种特征提取方式,就像一个筛子,将图像中符合条件(激活值越大越符合条件)的部分筛选出来。2.3 多卷积核上面所述只有 100 个参数时,表明只有 1 个 10*10 的卷积核,显然,特征提取是不充分的,我们可以添加多个卷积核,比如 32 个卷积核,可以学习 32 种特征。在有多个卷积核时,如下图所示:上图右,不同颜色表明不同的卷积核。每个卷积核都会将图像生成为另一幅图像。比如两个卷积核就可以将生成两幅图像,这两幅图像可以看做是一张图像的不同的通道。如下图所示,下图有个小错误,即将 w1 改为 w0,w2 改为w

8、1 即可。下文中仍以 w1 和 w2 称呼它们。下图展示了在四个通道上的卷积操作,有两个卷积核,生成两个通道。其中需要注意的是,四个通道上每个通道对应一个卷积核,先将 w2 忽略,只看 w1,那么在 w1 的某位置(i,j)处的值,是由四个通道上(i,j)处的卷积结果相加然后再取激活函数值得到的。所以,在上图由 4 个通道卷积得到 2 个通道的过程中,参数的数目为4222 个,其中 4 表示 4 个通道,第一个 2 表示生成 2 个通道,最后的22 表示卷积核大小。2.4 Down-pooling在通过卷积获得了特征 (features) 之后,下一步我们希望利用这些特征去做分类。理论上讲,人

9、们可以用所有提取得到的特征去训练分类器,例如 softmax 分类器,但这样做面临计算量的挑战。例如:对于一个 96X96 像素的图像,假设我们已经学习得到了 400 个定义在 8X8 输入上的特征,每一个特征和图像卷积都会得到一个 (96 8 + 1) (96 8 + 1) = 7921 维的卷积特征,由于有 400 个特征,所以每个样例 (example) 都会得到一个 7921 400 = 3,168,400 维的卷积特征向量。学习一个拥有超过 3 百万特征输入的分类器十分不便,并且容易出现过拟合 (over-fitting)。为了解决这个问题,首先回忆一下,我们之所以决定使用卷积后的特

10、征是因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,人们可以计算图像一个区域上的某个特定特征的平均值 (或最大值) 。这些概要统计特征不仅具有低得多的维度 (相比使用所有提取得到的特征) ,同时还会改善结果(不容易过拟合) 。这种聚合的操作就叫做池化 (pooling),有时也称为平均池化或者最大池化 (取决于计算池化的方法)。至此,卷积神经网络的基本结构和原理已经阐述完毕。2.5 多层卷积在实际应用中,往往使用多层卷积,然后再使用全连接层进行训练,多层卷积的目的

11、是一层卷积学到的特征往往是局部的,层数越高,学到的特征就越全局化。3 ImageNet-2010 网络结构ImageNet LSVRC 是一个图片分类的比赛,其训练集包括 127W+张图片,验证集有 5W 张图片,测试集有 15W 张图片。本文截取 2010 年 Alex Krizhevsky 的 CNN 结构进行说明,该结构在 2010 年取得冠军,top-5 错误率为 15.3%。值得一提的是,在今年的 ImageNet LSVRC 比赛中,取得冠军的 GoogNet 已经达到了 top-5 错误率 6.67%。可见,深度学习的提升空间还很巨大。下图即为 Alex 的 CNN 结构图。需要

12、注意的是,该模型采用了 2-GPU 并行结构,即第 1、2 、4、5 卷积层都是将模型参数分为 2 部分进行训练的。在这里,更进一步,并行结构分为数据并行与模型并行。数据并行是指在不同的 GPU 上,模型结构相同,但将训练数据进行切分,分别训练得到不同的模型,然后再将模型进行融合。而模型并行则是,将若干层的模型参数进行切分,不同的 GPU上使用相同的数据进行训练,得到的结果直接连接作为下一层的输入。上图模型的基本参数为: 输入:224224 大小的图片,3 通道 第一层卷积:1111 大小的卷积核 96 个,每个 GPU 上 48 个。 第一层 max-pooling:22 的核。 第二层卷积

13、:55 卷积核 256 个,每个 GPU 上 128 个。 第二层 max-pooling:22 的核。 第三层卷积:与上一层是全连接,3*3 的卷积核 384 个。分到两个 GPU 上个192 个。 第四层卷积:33 的卷积核 384 个,两个 GPU 各 192 个。该层与上一层连接没有经过 pooling 层。 第五层卷积:33 的卷积核 256 个,两个 GPU 上个 128 个。 第五层 max-pooling:22 的核。 第一层全连接:4096 维,将第五层 max-pooling 的输出连接成为一个一维向量,作为该层的输入。 第二层全连接:4096 维 Softmax 层:输出

14、为 1000,输出的每一维都是图片属于该类别的概率。4 DeepID 网络结构DeepID 网络结构是香港中文大学的 Sun Yi 开发出来用来学习人脸特征的卷积神经网络。每张输入的人脸被表示为 160 维的向量,学习到的向量经过其他模型进行分类,在人脸验证试验上得到了 97.45%的正确率,更进一步的,原作者改进了 CNN,又得到了 99.15%的正确率。如下图所示,该结构与 ImageNet 的具体参数类似,所以只解释一下不同的部分吧。上图中的结构,在最后只有一层全连接层,然后就是 softmax 层了。论文中就是以该全连接层作为图像的表示。在全连接层,以第四层卷积和第三层 max-pooling 的输出作为全连接层的输入,这样可以学习到局部的和全局的特征。

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 行业资料 > 其它行业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号