卷积神经网络原理推导教案资料

上传人:re****.1 文档编号:571890765 上传时间:2024-08-12 格式:PPT 页数:31 大小:1.15MB
返回 下载 相关 举报
卷积神经网络原理推导教案资料_第1页
第1页 / 共31页
卷积神经网络原理推导教案资料_第2页
第2页 / 共31页
卷积神经网络原理推导教案资料_第3页
第3页 / 共31页
卷积神经网络原理推导教案资料_第4页
第4页 / 共31页
卷积神经网络原理推导教案资料_第5页
第5页 / 共31页
点击查看更多>>
资源描述

《卷积神经网络原理推导教案资料》由会员分享,可在线阅读,更多相关《卷积神经网络原理推导教案资料(31页珍藏版)》请在金锄头文库上搜索。

1、卷积神经网络原理推导说明:先导知识:CNN网络结构、BP网络学习算法参考文献:NotesonConvolutionalNeuralNetworks2.1工作信号正向传播(1)当前第l层的输出xl:先求ul:第l-1层的输出xl-1(第l层的输入)与其对应权值Wl相乘,再加上基bl再利用激活函数f(.)得xl:sigmoid或Relu逐层传播,直至得到最终输出层结果利用网络输出值与真实值之间的误差,进行反向传播,调整权值。参数:c表示分类数目,N表示训练样本数tnk表示第n个样本真实值的第k维ynk表示第n个样本输出值的第k维(2)误差第n个样本的误差:每类(共c类)误差的和总误差:每个样本(共

2、N个)误差的和2.2误差信号反向传播反向传播回来的误差可以看做是每个神经元的基的灵敏度灵敏度的意思就是基b变化多少,误差会变化多少也就是误差对基的变化率,即导数(公式1)(1)反向计算各层灵敏度输出层第L层灵敏度:全连接层第l层灵敏度(公式2):(2)权值调整导数:权值更新(公式3):对于每一个权值Wij都有一个特定的学习率Ij误差差E对于第于第l层权值矩矩阵Wl的的导数数第第l层的的输入入(即第(即第l-1层的的输出)出)xl-1第第l层的的灵敏度灵敏度向量向量l=X2.卷积层学习算法2.1工作信号正向传播2.2误差信号反向传播卷积层典型结构图卷卷积层输入入层子采样层典型结构图卷卷积层子采子

3、采样层假定每个卷假定每个卷积层l都会接一个下采都会接一个下采样层l+1 2.1工作信号正向传播(1)当前第l层的第j个输出xlj:先从第l-1层的特征图里,选择若干个组成第l层输入特征图集合Mj;再利用卷积核Klij分别与输入特征图中的每个map即xl-1i进行卷积,并求和;最后加上基blj,使用激活函数f即可。(2)确定需要更新的权值基b卷积核k说明:此时需要分别计算误差对它们的变化率和2.2误差信号反向传播(1)计算基的梯度上采样第l+1层第j个灵敏度map:说明:第l+1层为下采样层,其中一个像素对应的灵敏度对应于第l层卷积层的输出map的一块像素(采样窗口大小),因此,上采样使其灵敏度

4、map大小与卷积层的map大小一致求第I层第j个灵敏度map(公式2可得):说明:在下采样层map的权值W都取一个相同值,而且是一个常数。第l层灵敏度l:对第l层中的灵敏度map中所有节点进行求和,由公式1可知,得到基的梯度。(2)计算卷积核的梯度对于一个给定的权值,对所有共享该权值的连接对该点求梯度;然后对这些梯度进行求和。说明:是中的在卷积的时候与逐元素相乘的patch3.子采样层学习算法3.1工作信号正向传播3.2误差信号反向传播3.1工作信号正向传播(1)当前第l层的第j个输出xlj:down(.)表示一个下采样函数。有N个输入maps,就有N个输出maps,只是每个输出map都变小n*n倍。每个输出map都对应一个属于自己的乘性基和一个加性基b。(2)确定需要更新的权值加性基b乘性基说明:此时需要分别计算误差对它们的变化率和3.2误差信号反向传播(1)计算加性基的梯度计算第I层第j个灵敏度map加性基的梯度:(2)计算乘性基的梯度保存正向传播时下采样层的特征map:乘性基的梯度4.特征图组合人工选择网络选择第l层第j个输出特征图xlj:说明:ij表示在得到第j个输出map的第i个输入map的权值,需要满足约束误差对于第l层变量i的导数为:代价函数关于权值ci的偏导为:结束语结束语谢谢大家聆听!谢谢大家聆听!31

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 建筑/环境 > 施工组织

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号