四章突触动力学非监督学习

上传人:人*** 文档编号:586650822 上传时间:2024-09-05 格式:PPT 页数:63 大小:688.55KB
返回 下载 相关 举报
四章突触动力学非监督学习_第1页
第1页 / 共63页
四章突触动力学非监督学习_第2页
第2页 / 共63页
四章突触动力学非监督学习_第3页
第3页 / 共63页
四章突触动力学非监督学习_第4页
第4页 / 共63页
四章突触动力学非监督学习_第5页
第5页 / 共63页
点击查看更多>>
资源描述

《四章突触动力学非监督学习》由会员分享,可在线阅读,更多相关《四章突触动力学非监督学习(63页珍藏版)》请在金锄头文库上搜索。

1、第四章 突触动力学 非监督学习n复习 1 Heb学习法则 简化后可得2024/9/51第四章 突触动力学 非监督学习n复习 2 竞争学习法则 其中含有一个陡峭逻辑响应函数2024/9/52第四章 突触动力学 非监督学习n复习 3 微分Heb学习法则2024/9/53第四章 突触动力学 非监督学习n复习 4 微分竞争学习法则2024/9/54第四章 突触动力学 非监督学习n信号的Heb学习n竞争学习n微分Heb学习n微分竞争学习2024/9/55一 信号的Heb学习通过求解Heb学习法则的公式 (132)可获得如下积分方程 (133)2024/9/56一 信号的Heb学习n近期的影响与遗忘n渐进

2、相关编码nHeb相关解码2024/9/57近期的影响与遗忘nHeb学习遵循的是指数加权平均的样本模式。式中的遗忘项为 。 上述遗忘项产生了积分方程中先前突触的指数系数。说明学习的同时也在遗忘,而且是呈指数衰减。 (132)中的遗忘项 产生了(133)中对先前知识 的指数权 。2024/9/58近期的影响与遗忘n实际上遗忘定律提供的最简单的局部非监督学习定律为: (134)n说明了两个关键特征: 1 仅依赖于局部信息,即现在的突触强度 。 2 呈指数律达到平衡,可实时操作。2024/9/59渐进相关编码 (135) X和Y:双极信号 和 。 , = 1,-1 两种极端情况: 1 2 实际中必须使

3、用一个对角衰减记忆指数矩阵 来补偿固有的信息指数衰减。 2024/9/510渐进相关编码 (142) X和Y表示二极信号矢量矩阵。简单说,用对角衰减矩阵W的目的就是对过去的联想模式取一段学习时间,而给最近的m个联想模式取更短一些的学习时间。达到补偿指数衰减的目的。2024/9/511Heb相关解码 考虑m个二极矢量联想对 的二极相关编码。 表示n维二极空间 中的一个点, 表示p维二极空间 中的一个点。 二极联想对 对应于二值矢量联想对 。 表示n维布尔空间 中的一个点, 代表p维空间 中的一个点。2024/9/512Heb相关解码 可以看出,把0换成-1, 就会变成 。这样,若加权矩阵W为单位

4、阵I,二极联想对的Heb编码就对应于(142)的加权Heb编码方案: (143)2024/9/513Heb相关解码 可用Heb突触矩阵M对 和 神经元信号进行双向处理。可把神经元信号前向通过M,后向通过 。这里仅考察前向的情况。 二极矢量 提供给神经元系统。有若干 , 越接近 ,解码精度越高。2024/9/514Heb相关解码 信噪分解 (144) (145) (146)2024/9/515Heb相关解码 其中 这里 为信号矢量而 为噪声矢量。 为校正系数,使每个 尽可能从符号上接近于 。把 或其它靠近的矢量Y通过 ,校正性质依然成立。 用神经元网络从有代表性的训练样本中估计连续函数f时,有一

5、个连续的假设。2024/9/516Heb相关解码 假定异联想样本 从连续函数f上取样,那么输入的微小变化必然引起输出的微小变化。 相同的比特数-不同的比特数 (154)2024/9/517Heb相关解码 若两个二值矢量 和 靠近 ,相同的比特数大于不同的比特数,那么 。极端情况下 , 。 时, ,校正系数将度量上含糊不清的矢量丢弃掉,不参与求和。 与 相差较远, 。极端情况下 ,则 。2024/9/518Heb相关解码nHeb编码步骤: 1 把二值矢量 变为双极矢量 ; 2 对邻接的相关编码联想求和 若TAM假设成立 则对同步的TAM输入 ,把激励同步阈值化为信号,就产生了 :2024/9/5

6、19Heb相关解码nHeb编码步骤(例证): 一个三步极限环 位矢量: 将位矢量转换成二极矢量2024/9/520Heb相关解码 产生TAM矩阵2024/9/521Heb相关解码n位矢量 通过T产生: 因此产生前向极限环 后向情况类似。2024/9/522二 竞争学习n确定性竞争学习定律: (165) 也可写为 这里用的是非线性遗忘项 ,而Heb学习定律用的是线性遗忘项。 因此两种学习方法的区别在于它们如何遗忘而不是如何学习。2024/9/523二 竞争学习n两种情况下都有当第j个竞争神经元获胜时 ,突触 以指数率迅速编码信号 。与Heb突触不同的是,竞争突触当突触后神经元失败时,并不遗忘,此

7、时 。因此(165)就简化为不改变的形式 。而Heb学习则简化为(134)的形式 。2024/9/524二 竞争学习nHeb学习是分布式的,对每个样本模式进行编码,因此学习新模式后,会遗忘每个所学模式的部分。n而竞争学习不是分布式的,如果样本模式 或 坚持足够长的学习,竞争突触就会成为“grandmother”突触,突触值很快等于模式 或 ,其它突触不会编码这种模式。?2024/9/525二 竞争学习n竞争作为指示器n竞争作为相关检测器n渐进质心估计n竞争协方差估计2024/9/526竞争作为指示器n质心估计需要竞争信号 近似于局部样本模式 的指示函数 (168) 这样如果样本x来自于区域 ,

8、则第j个竞争元获胜,其它神经元失败。 (169) 2024/9/527竞争作为指示器n上式是 的神经元激励,使用的是随机线性竞争学习和简单的加模型。 与 是随机行矢量, 是 竞争神经元向第 j个神经元发出的阻性反馈。 (170)2024/9/528竞争作为指示器 其中 是阻性反馈值,它等于突触加权信号的和式。式(170)中 为二值阈值化函数,因此该式可简化为:当第j个神经元获胜时 ,如果第k个神经元获胜,则 ? 竞争神经元激励自己(或邻近区域),同时禁止其它(或较远的区域)。2024/9/529竞争作为相关检测器n度量指示函数: (171) 于是竞争学习就简化为信号相关检测。这里要用到等范数的

9、特性。那么如何将度量竞争学习简化为相关检测,设在每个时刻的突触矢量具有相等的正的有限的范数值:2024/9/530竞争作为相关检测器 (173) 从(4-171)知:第j个竞争神经元获胜当且仅当: (174177) 2024/9/531竞争作为相关检测器 利用等范数特性并进一步简化可得: (179) 可看出当且仅当输入信号模式 x 与 最大相关时,第j个竞争元才竞争获胜。 余弦定律: 度量竞争学习的几何解释:第j个神经元当且仅当输入模式更平行于突触矢量时才获胜。2024/9/532渐进的质心估计n简化的竞争学习定律: (181) 突触矢量 倾向于等于区域 的质心,至少也是平均意义上的质心。具体

10、的细节将在第六章讨论。结论是平均突触矢量以指数规律迅速收敛到质心。应用此特性可以把训练样本只通过一次或少数的几次即可。2024/9/533竞争协方差估计n质心估计提供概率密度函数的一阶估计,而局部的协方差估计提供二阶描述。先将竞争学习规律扩展到渐进估计条件协方差矩阵 。 (189) 这里 表示 的质心。每个确定类 都有一个质心。2024/9/534竞争协方差估计 Borel测度随机矢量y的均方误差优化估计是误差估计理论的一个重要定理: (190) 其中 为Borel测度随机矢量函数。2024/9/535竞争协方差估计 每一步迭代中估计未知的质心 作为当前突触矢量 。这样 就成为一个误差条件协方

11、差矩阵。对于获胜突触矢量有下列随机微分方程算法(191-192)2024/9/536竞争协方差估计 如果第i个 神经元在 度量竞争中失败,则 (193) (194) 2024/9/537三 微分Heb学习n确定的微分Heb学习定律: (204) 及其简化形式 (205) 从样本数据的模糊认知映射的动态估计中提出。直觉上讲,Heb相关促进同时激励单元中伪因果联想。而微分相关则可以估计激励单元中同时的,假定为因果的变化。2024/9/538三 微分Heb学习n模糊认知映射n自适应因果推理nKlopf的驱动增强模型n伴随变化作为统计协方差n脉冲编码微分Heb学习2024/9/539模糊认知映射n模糊

12、认知映射(FCMS)是带有反馈的模糊正负号的有向图。有向边 从因果概念 到概念 表示 对 因果程度的测度。边 取值于模糊因果空间 , 表示没有因果关系。 表示因果增加, 随 的增加而增加,随其减小而减小。 表示因果减小,即 随 的增加而减小。 2024/9/540模糊认知映射 图4.2外国投资矿业雇用黑人白人种族激进主义工作保留法律黑人种族联合种族隔离政府管理力度民族政党支持者2024/9/541模糊认知映射nFCM的因果连接矩阵:2024/9/542模糊认知映射n上图的TAM记忆过程: 从外国投资政策开始,即 这样: 箭头后为阈值化操作,1/2作为门限值。2024/9/543模糊认知映射n零

13、因果输入产生零因果输出。由于此处测试外国投资,因此 保持为1。下一步 下一步 因此 是FCM动态系统的固定点。2024/9/544自适应因果推理n当我们观察两个变量之间的伴随变化或滞后变化,要推出其间的因果关系,若A改变时B也改变,则猜想它们之间有因果关系,相关改变越大,因果关系越准确。n时间导数测值变化,导数的乘积将这些变化关联起来。这就导出了简单的微分Heb学习规则 2024/9/545自适应因果推理n其中 为被动衰减项,它强制不改变的概念为零因果。n伴随变化项 表明因果性随邻接概念的变化增加或减少,导数可正可负,若 , 都增加或都减少,导数乘积为正,否则为负,该项提供了一个简单的因果时间

14、方向。 2024/9/546Klopf的驱动增强模型nHarry Klopf单独提出如下微分Heb学习的离散变量: 增强驱动模型中,强行加入几个限制。神经元膜电势 和 必须遵循加性激励规则:2024/9/547Klopf的驱动增强模型n微分形式的驱动增强模型为: 突触幅度 增强突触的可塑性,假定第ij个突触被激励时 ,则上式可改写为: 。一般 项很小,用以阻止快速遗忘,因此上式就变为:2024/9/548伴随变化作为统计协方差n伴随变化类似于协方差。微分Heb学习中将变化解释为时间的改变,伴随的是耦合或乘积。另外还可以从空间的角度将变化解释为统计方差或协方差。n协方差学习规则的形式如下: 加入

15、遗忘项一方面保持突触有限,另一方面建立遗忘的模型。2024/9/549伴随变化作为统计协方差n上式描述突触随机过程的时间进化。进一步将上式写为: 可以用实际观察值来代替未知平均值。如何在每个时刻估计未知的均值?可以用稍微滞后的随机近似估计,martingale假设用现在估计将来,或者用过去估计现在。2024/9/550伴随变化作为统计协方差 上述分形接线假设的精度随着s靠近t而提高。该式表示了一种合理的期望,前提是信号过程具有良好的行为。该假设的离散形式如下: 2024/9/551伴随变化作为统计协方差 这样方差项就可以简化为时间上的伴随变化项。学习规则也就成了典型的Heb差分学习: 从 开始

16、递归上式可得到: 2024/9/552脉冲编码的微分Heb学习n脉冲编码信号函数: (239) (240) 其中 和 都是脉冲函数,在t时刻 为1,其余地方为0。 速度微分特性(脉冲编码信号):2024/9/553脉冲编码的微分Heb学习n利用速度微分特性,可得到脉冲编码微分Heb学习规则: 当没有脉冲出现,即 时,简化为随机信号学习规则。2024/9/554脉冲编码的微分Heb学习n用双极信号代替二值信号,接着假定脉冲及其期望频率分别相互独立,将上式的平均行为简化为: 即随机信号Heb学习规则的总体平均等价于典型的确知信号Heb学习规则。2024/9/555四 微分竞争学习n微分竞争学习规则

17、为: 用速度微分特性代替上式中的 ,那么 当第j个 的神经元初次竞争获胜时,上式就退化为随机竞争学习:2024/9/556四 微分竞争学习 此时 。如果第j个神经元连续获胜, 很快接近于1,学习就会停止。这样就阻止了第j个神经元获胜太频繁,否则会过早编码一个新的 。编码不稳定,可用自组织共振模型来解决这一问题。在非微分竞争学习中,获胜的神经元趋向于一直获胜,给第j个神经元的激励超过其他竞争对手。?2024/9/557四 微分竞争学习 微分竞争学习中。一旦第j个神经元保证竞争获胜,获胜的信号 会迅速停止改变。 竞争信号变化率 近似于监督增强函数 ,他们都是奖励正信号惩罚负信号,都迅速估计出未知模

18、式类中心。但是增强函数 需要实时神经元“知道”并使用模式样本的转换类隶属度。 2024/9/558四 微分竞争学习n非监督信号变化 不依赖于未知隶属度关系。实际上它同时估计这些信息与获胜率信息。而增强函数忽略获胜信息。所以尽管微分竞争学习用很少的信息,但它与监督竞争学习具有相比拟的作用。2024/9/559微分竞争学习作为 调制n离散(脉冲编码)差分竞争学习规则: (261) 表示了神经元的自适应 调制。通信理论中, 调制系统传输的是相邻采样的幅度差分而不是采样幅度本身。一个 调制系统可以传输 信号,表明基本采样波形局部增加或减少。2024/9/560微分竞争学习作为 调制n可以将信号差分近似为激励的差分: 这里的 定义如下:2024/9/561微分竞争学习作为 调制 符号算子固定了 调制的步长。像(261)所示的变量步长就导致了自适应 调制。信号饱和长时间后,激励差分仍保持对激励变量的敏感。2024/9/562 今天就到这里谢谢大家2024/9/563

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 建筑/环境 > 施工组织

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号