pso粒子群算法概述课件

上传人:大米 文档编号:567690537 上传时间:2024-07-22 格式:PPT 页数:28 大小:1.32MB
返回 下载 相关 举报
pso粒子群算法概述课件_第1页
第1页 / 共28页
pso粒子群算法概述课件_第2页
第2页 / 共28页
pso粒子群算法概述课件_第3页
第3页 / 共28页
pso粒子群算法概述课件_第4页
第4页 / 共28页
pso粒子群算法概述课件_第5页
第5页 / 共28页
点击查看更多>>
资源描述

《pso粒子群算法概述课件》由会员分享,可在线阅读,更多相关《pso粒子群算法概述课件(28页珍藏版)》请在金锄头文库上搜索。

1、粒子群优化算法粒子群优化算法粒子群优化算法粒子群优化算法PSOPSO算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbes

2、t) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 粒子群优化算法(粒子群优化算法(PSO)是一种进化计算技术)是一种进化计算技术(evolutionary computation),

3、由由Eberhart博士博士和和kennedy博士博士于于1995年提出年提出 (Kennedy J,Eberhart R Particle swarm optimizationProceedings of the IEEE International Conference on Neural Networks199519421948.)。源于对鸟群捕食的行为研究。粒子群源于对鸟群捕食的行为研究。粒子群优化算法的基本思想是通过群体中个体之间的协优化算法的基本思想是通过群体中个体之间的协作和信息共享来寻找最优解作和信息共享来寻找最优解 PSO的优势在于简单容易实现并且没有的优势在于简单容易实现并

4、且没有许多许多参数参数的调节。目前已被广泛应用于函数优化、神经网的调节。目前已被广泛应用于函数优化、神经网络训练、模糊系统控制以及其他遗传算法的应用络训练、模糊系统控制以及其他遗传算法的应用领域。领域。 算法介绍算法介绍 算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。

5、在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群

6、体中粒子的总数的总数 算法介绍算法介绍 设想这样一个场景:一群鸟在随机的搜索食物。设想这样一个场景:一群鸟在随机的搜索食物。在这个区域里只有一块食物,所有的鸟都不知在这个区域里只有一块食物,所有的鸟都不知道食物在那。但是它们知道自己当前的位置距道食物在那。但是它们知道自己当前的位置距离食物还有多远。离食物还有多远。那么找到食物的最优策略是什么那么找到食物的最优策略是什么?最简单有效的就是搜寻目前离食物最近的鸟的最简单有效的就是搜寻目前离食物最近的鸟的周围区域。周围区域。算法介绍算法介绍算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一

7、群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两

8、个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 抽象:抽象:抽象:抽象:鸟被抽象为没有质量和体积的微粒鸟被抽象为没有质量和体积的微粒鸟被抽象为没有质量和体积的微粒鸟被抽象为没有质量和体积的微粒( ( ( (点点点点) ) ) ),并延伸到,并延伸到,并延伸到,并延伸到N N N N维维维维空间,粒子空间,粒子空间,粒子空间,粒子I I I I 在在在在N

9、N N N维空间的位置表示为矢量维空间的位置表示为矢量维空间的位置表示为矢量维空间的位置表示为矢量XiXiXiXi( ( ( (x x x x1 1 1 1,x x x x2 2 2 2,x x x xN N N N) ) ) ),飞行速度表示为矢量,飞行速度表示为矢量,飞行速度表示为矢量,飞行速度表示为矢量ViViViVi( ( ( (v v v v1 1 1 1,v v v v2 2 2 2,v v v vN N N N) ) ) )每个粒子都有一个由目标函数决定的适应值每个粒子都有一个由目标函数决定的适应值每个粒子都有一个由目标函数决定的适应值每个粒子都有一个由目标函数决定的适应值(fi

10、tness (fitness (fitness (fitness value)value)value)value),并且知道自己到目前为止发现的最好位置,并且知道自己到目前为止发现的最好位置,并且知道自己到目前为止发现的最好位置,并且知道自己到目前为止发现的最好位置( ( ( (pbestpbestpbestpbest) ) ) )和现在的位置和现在的位置和现在的位置和现在的位置XiXiXiXi这个可以看作是粒子自己的这个可以看作是粒子自己的这个可以看作是粒子自己的这个可以看作是粒子自己的飞行经验除此之外,每个粒子还知道到目前为止整个飞行经验除此之外,每个粒子还知道到目前为止整个飞行经验除此之

11、外,每个粒子还知道到目前为止整个飞行经验除此之外,每个粒子还知道到目前为止整个群体中所有粒子发现的最好位置群体中所有粒子发现的最好位置群体中所有粒子发现的最好位置群体中所有粒子发现的最好位置( ( ( (gbest)(gbestgbest)(gbestgbest)(gbestgbest)(gbest是是是是pbestpbestpbestpbest中的最好值中的最好值中的最好值中的最好值) ) ) )这个可以看作是粒子同伴的经验粒子这个可以看作是粒子同伴的经验粒子这个可以看作是粒子同伴的经验粒子这个可以看作是粒子同伴的经验粒子就是通过自己的经验和同伴中最好的经验来决定下一步就是通过自己的经验和同

12、伴中最好的经验来决定下一步就是通过自己的经验和同伴中最好的经验来决定下一步就是通过自己的经验和同伴中最好的经验来决定下一步的运动。的运动。的运动。的运动。 算法介绍算法介绍 算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值

13、极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 PSOPSOPSOPSO初

14、始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭。然后通过迭。然后通过迭。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪代找到最优解。在每一次的迭代中,粒子通过跟踪代找到最优解。在每一次的迭代中,粒子通过跟踪代找到最优解。在每一次的迭代中,粒子通过跟踪两个两个两个两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更在

15、找到这两个最优值后,粒子通过下面的公式来更在找到这两个最优值后,粒子通过下面的公式来更在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。新自己的速度和位置。新自己的速度和位置。新自己的速度和位置。(1)(1)式式(2)(2)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 算法介绍算法介绍 算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭

16、代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位

17、置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 Vi 是粒子的速度;是粒子的速度;pbest和和gbest如前定如前定义;rand()是介于(是介于(0、1)之)之间的随机数;的随机数;Xi 是粒子的当前位置。是粒子的当前位置。c1c1和和和和c2c2是学是学是学是学习习因子,通常取因子,通常取因子,通常取因子,通常取c1c1 c2c22 2在每一维,粒子都有一个最大限制速度在每一维,粒子都有一个最大限制速度在每一维,粒子都有一个最大限制速度在每一维,粒子都有一个最大

18、限制速度VmaxVmax,如果,如果,如果,如果某一维的速度超过设定的某一维的速度超过设定的某一维的速度超过设定的某一维的速度超过设定的VmaxVmax ,那么这一维的速度,那么这一维的速度,那么这一维的速度,那么这一维的速度就被限定为就被限定为就被限定为就被限定为VmaxVmax 。(。(。(。( VmaxVmax 00)以上面两个公式以上面两个公式为基基础,形成了后来,形成了后来PSO 的的标准形式准形式算法介绍算法介绍 算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) )

19、)。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值

20、后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 算法介绍算法介绍 从社会学的角度来看,公式从社会学的角度来看,公式从社会学的角度来看,公式从社会学的角度来看,公式(1)(1)的第一部分称为记忆项,的第一部分称为记忆项,的第一部分称为记忆项,的第一部分称为记忆项,表示上次速度大小和方向的影响;公式第二部分称为自表示上次速度大小和方向的影响;公式第二部分称为自表示上次速度大小和方向的影响;公式第二部分称为自表示上次速度

21、大小和方向的影响;公式第二部分称为自身认知项,是从当前点指向粒子自身最好点的一个矢量,身认知项,是从当前点指向粒子自身最好点的一个矢量,身认知项,是从当前点指向粒子自身最好点的一个矢量,身认知项,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;公式的第三部表示粒子的动作来源于自己经验的部分;公式的第三部表示粒子的动作来源于自己经验的部分;公式的第三部表示粒子的动作来源于自己经验的部分;公式的第三部分称为群体认知项,是一个从当前点指向种群最好点的分称为群体认知项,是一个从当前点指向种群最好点的分称为群体认知项,是一个从当前点指向种群最好点的分称为群体认知项,是一个从当

22、前点指向种群最好点的矢量,反映了粒子间的协同合作和知识共享。粒子就是矢量,反映了粒子间的协同合作和知识共享。粒子就是矢量,反映了粒子间的协同合作和知识共享。粒子就是矢量,反映了粒子间的协同合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运通过自己的经验和同伴中最好的经验来决定下一步的运通过自己的经验和同伴中最好的经验来决定下一步的运通过自己的经验和同伴中最好的经验来决定下一步的运动。动。动。动。以上面两个公式为基础,形成了后来以上面两个公式为基础,形成了后来PSO 的标准形式的标准形式算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为

23、一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式

24、来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 算法介绍算法介绍 1998年年shi等人在进化计算的国际会议上等人在进化计算的国际会议上发表了一篇论文发表了一篇论文A modified particle swarmoptimizer对前面的公式对前面的公式(1)进行了修正。引入进行了修正。引入惯性权重因子。惯性权重因子。(3 3)式)

25、式)式)式非负,称为惯性因子。非负,称为惯性因子。 公式公式(2)和和(3)被视为标准被视为标准pso算法。算法。 算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gb

26、estpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 算法介绍算法介绍 标标准准准准PSOPSO算法的流程:算法的流程:算法的流程:算法的

27、流程:Step1:Step1:初始化一群微粒初始化一群微粒初始化一群微粒初始化一群微粒( (群体群体群体群体规规模模模模为为m)m),包括随机位置和,包括随机位置和,包括随机位置和,包括随机位置和 速度;速度;速度;速度;Step2:Step2:评评价每个微粒的适价每个微粒的适价每个微粒的适价每个微粒的适应应度;度;度;度;Step3:Step3:对对每个微粒,将其适每个微粒,将其适每个微粒,将其适每个微粒,将其适应值应值与其与其与其与其经过经过的最好位置的最好位置的最好位置的最好位置 pbestpbest作比作比作比作比较较,如果,如果,如果,如果较较好,好,好,好,则则将其作将其作将其作将

28、其作为为当前的当前的当前的当前的 最好位置最好位置最好位置最好位置pbestpbest; ;Step4:Step4:对每个微粒,将其适应值与其经过的最好位置对每个微粒,将其适应值与其经过的最好位置对每个微粒,将其适应值与其经过的最好位置对每个微粒,将其适应值与其经过的最好位置 gbestgbest作比较,如果较好,则将其作为当前的作比较,如果较好,则将其作为当前的作比较,如果较好,则将其作为当前的作比较,如果较好,则将其作为当前的 最好位置最好位置最好位置最好位置gbestgbest; ;Step5:Step5:根据根据根据根据(2)(2)、(3)(3)式调整微粒速度和位置;式调整微粒速度和位

29、置;式调整微粒速度和位置;式调整微粒速度和位置;Step6Step6:未达到结束条件则转:未达到结束条件则转:未达到结束条件则转:未达到结束条件则转Step2Step2。算法介绍算法介绍迭代终止条件迭代终止条件根据具体问题一般选为最大迭代根据具体问题一般选为最大迭代次数次数G Gk k或或( (和和) )微粒群迄今为止搜索到的最优位置微粒群迄今为止搜索到的最优位置满足预定最小适应阈值满足预定最小适应阈值。PSO算法流程图和伪代码算法流程图和伪代码应用举例应用举例例例例例6.16.1已知函数已知函数已知函数已知函数 , 其中其中其中其中 ,用粒子群优化算法求解,用粒子群优化算法求解,用粒子群优化

30、算法求解,用粒子群优化算法求解y y的最小值。的最小值。的最小值。的最小值。运行步骤运行步骤算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbe

31、stpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 局部和全局最优算法局部和全局最优算法方程方程方程方程(2)(2)和和和和(3)(3)中中中中pbestpbe

32、st和和和和gbestgbest分别表示微粒群的局部和分别表示微粒群的局部和分别表示微粒群的局部和分别表示微粒群的局部和全局最优位置,当全局最优位置,当全局最优位置,当全局最优位置,当C1C10 0时,则粒子没有了认知能力,时,则粒子没有了认知能力,时,则粒子没有了认知能力,时,则粒子没有了认知能力,变为只有社会的模型变为只有社会的模型变为只有社会的模型变为只有社会的模型(social-only):(social-only):被称为全局被称为全局被称为全局被称为全局PSOPSO算法算法算法算法. .粒子有扩展搜索空间的能力,具有粒子有扩展搜索空间的能力,具有粒子有扩展搜索空间的能力,具有粒子有

33、扩展搜索空间的能力,具有较快的收敛速度,但由于缺少局部搜索,对于复杂问题较快的收敛速度,但由于缺少局部搜索,对于复杂问题较快的收敛速度,但由于缺少局部搜索,对于复杂问题较快的收敛速度,但由于缺少局部搜索,对于复杂问题比标准比标准比标准比标准PSO PSO 更易陷入局部最优。更易陷入局部最优。更易陷入局部最优。更易陷入局部最优。算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代

34、中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1

35、)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 当当C20时,则粒子之间没有社会信息,模型变为时,则粒子之间没有社会信息,模型变为只有认知只有认知(cognition-only)模型:模型:被称为局部被称为局部PSO算法。由于个体之间没有信息的算法。由于个体之间没有信息的交流,整个群体相当于多个粒子进行盲目的随机交流,整个群体相当于多个粒子进行盲目的随机搜索,收敛速度慢,因而得到最优解的可能性小。搜索,收敛速度慢,因而得到最优解的可能性小。局部和全局最优算法局部和全局最优算法算法介绍算法介绍PSOPSOPSOPSO

36、初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更

37、新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 参数分析参数分析参数有:群体规模参数有:群体规模参数有:群体规模参数有:群体规模mm,惯性因子,惯性因子,惯性因子,惯性因子 ,学习因子,学习因子,学习因子,学习因子c1c1和和和和c2c2最大速度最大速度最大速度最大速度V Vmaxmax

38、,迭代次数,迭代次数,迭代次数,迭代次数GGk k。群体规模群体规模群体规模群体规模m m 一般取一般取一般取一般取20204040,对较难或特定类别的问题,对较难或特定类别的问题,对较难或特定类别的问题,对较难或特定类别的问题可以取到可以取到可以取到可以取到100100200200。最大速度最大速度V Vmaxmaxmaxmax决定当前位置与最好位置之间的区域的决定当前位置与最好位置之间的区域的分辨率分辨率( (或精度或精度) )。如果太快,则粒子有可能越过极小。如果太快,则粒子有可能越过极小点点; ;如果太慢,则粒子不能在局部极小点之外进行足如果太慢,则粒子不能在局部极小点之外进行足够的探

39、索,会陷入到局部极值区域内。这种限制可以够的探索,会陷入到局部极值区域内。这种限制可以达到防止计算溢出、决定问题空间搜索的粒度的目的。达到防止计算溢出、决定问题空间搜索的粒度的目的。算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值

40、极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 权重因子权重因子

41、包括惯性因子包括惯性因子 和学习因子和学习因子c1c1和和c2c2。 使粒子使粒子保持着运动惯性,使其具有扩展搜索空间的趋势,有保持着运动惯性,使其具有扩展搜索空间的趋势,有能力探索新的区域。能力探索新的区域。C1C1和和c2c2代表将每个粒子推向代表将每个粒子推向PbestPbest和和gbestgbest位置的统计加速项的权值。较低的值允许粒子位置的统计加速项的权值。较低的值允许粒子在被拉回之前可以在目标区域外徘徊,较高的值导致粒在被拉回之前可以在目标区域外徘徊,较高的值导致粒子突然地冲向或越过目标区域。子突然地冲向或越过目标区域。参数分析参数分析算法介绍算法介绍PSOPSOPSOPSO初

42、始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新

43、自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 参数分析参数分析参数设置:参数设置:如果令如果令如果令如果令c1c1c2c20 0,粒子将一直以当前,粒子将一直以当前,粒子将一直以当前,粒子将一直以当前速度的飞行,直到边界。很难找到最优解。速度的飞行,直到边界。很难找到最优解。速度的飞行,

44、直到边界。很难找到最优解。速度的飞行,直到边界。很难找到最优解。如果如果如果如果 0 0,则速度只取决于当前位置和历史最好位置,则速度只取决于当前位置和历史最好位置,则速度只取决于当前位置和历史最好位置,则速度只取决于当前位置和历史最好位置,速度本身没有记忆性。假设一个粒子处在全局最好位置速度本身没有记忆性。假设一个粒子处在全局最好位置速度本身没有记忆性。假设一个粒子处在全局最好位置速度本身没有记忆性。假设一个粒子处在全局最好位置,它将保持静止,其他粒子则飞向它的最好位置和全局,它将保持静止,其他粒子则飞向它的最好位置和全局,它将保持静止,其他粒子则飞向它的最好位置和全局,它将保持静止,其他粒

45、子则飞向它的最好位置和全局最好位置的加权中心。粒子将收缩到当前全局最好位置。最好位置的加权中心。粒子将收缩到当前全局最好位置。最好位置的加权中心。粒子将收缩到当前全局最好位置。最好位置的加权中心。粒子将收缩到当前全局最好位置。在加上第一部分后,粒子有扩展搜索空间的趋势,这也在加上第一部分后,粒子有扩展搜索空间的趋势,这也在加上第一部分后,粒子有扩展搜索空间的趋势,这也在加上第一部分后,粒子有扩展搜索空间的趋势,这也使得使得使得使得ww的作用表现为针对不同的搜索问题,调整算法的的作用表现为针对不同的搜索问题,调整算法的的作用表现为针对不同的搜索问题,调整算法的的作用表现为针对不同的搜索问题,调整

46、算法的全局和局部搜索能力的平衡。全局和局部搜索能力的平衡。全局和局部搜索能力的平衡。全局和局部搜索能力的平衡。 较大时,具有较强的全较大时,具有较强的全较大时,具有较强的全较大时,具有较强的全局搜索能力;局搜索能力;局搜索能力;局搜索能力; 较小时,具有较强的局部搜索能力。较小时,具有较强的局部搜索能力。较小时,具有较强的局部搜索能力。较小时,具有较强的局部搜索能力。算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到

47、最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速

48、度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 参数分析参数分析通常设通常设通常设通常设c1c1c2c22 2。SuganthanSuganthan的实验表明:的实验表明:的实验表明:的实验表明:c1c1和和和和c2c2为常数时可以得到较好的解,但不一定必须等于为常数时可以得到较好的解,但不一定必须等于为常数时可以得到较好的解,但不一定必须等于为常数时可以得到较好的解,但不一定必须等于2 2。ClercClerc引入收敛因子引入收敛因子引入收敛因子引入收敛因子(constr

49、iction factor) K(constriction factor) K来保证来保证来保证来保证收敛性。收敛性。收敛性。收敛性。其中其中其中其中算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pb

50、est,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 参数分析参数分析通常取通常取 为为4.1,则则K0

51、.729.实验表明,与使实验表明,与使用惯性权重的用惯性权重的PSO算法相比,使用收敛因子的算法相比,使用收敛因子的PSO有更快的收敛速度。其实只要恰当的选取有更快的收敛速度。其实只要恰当的选取 和和c1、c2,两种算法是一样的。因此使用收,两种算法是一样的。因此使用收敛因子的敛因子的PSO可以看作使用惯性权重可以看作使用惯性权重PSO的特的特例。例。恰当的选取算法的参数值可以改善算法的性能。恰当的选取算法的参数值可以改善算法的性能。算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解)

52、) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两

53、个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 离散二进制离散二进制PSO基本基本基本基本PSOPSOPSOPSO是用于实值连续空间,然而许多实际问题是组合是用于实值连续空间,然而许多实际问题是组合是用于实值连续空间,然而许多实际问题是组合是用于实值连续空间,然而许多实际问题是组合优化问题,因而提出离散形式的优化问题,因而提出离散形式的优化问题,因而提出离散形式的优化问题,因而提出离散形式的PSOPSOPS

54、OPSO。速度和位置更新式为:速度和位置更新式为:速度和位置更新式为:速度和位置更新式为:thenthenelseelse其中其中为为sigmoid函数函数算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( (

55、(pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 PSOPSO和其他算法和其他算法 1、遗传算

56、法和、遗传算法和PSO的比较的比较共性共性:(1) 都属于仿生算法。都属于仿生算法。(2) 都属于全局优化方法。都属于全局优化方法。(3) 都属于随机搜索算法。都属于随机搜索算法。(4) 都隐含并行性。都隐含并行性。(5) 根据个体的适配信息进行搜索,因此不受函数根据个体的适配信息进行搜索,因此不受函数 约束条件的限制,如连续性、可导性等。约束条件的限制,如连续性、可导性等。(6) 对高维复杂问题,往往会遇到早熟收敛和收敛对高维复杂问题,往往会遇到早熟收敛和收敛 性能差的缺点,都无法保证收敛到最优点。性能差的缺点,都无法保证收敛到最优点。 PSO和其他算法差异:差异:(1) PSO有记忆,好的

57、解的知识所有粒子都保有记忆,好的解的知识所有粒子都保 存,存,而而GA,以前的知识随着种群的改变被改变。,以前的知识随着种群的改变被改变。(2) PSO中的粒子仅仅通过当前搜索到最优点进中的粒子仅仅通过当前搜索到最优点进行共享信息,所以很大程度上这是一种单共享行共享信息,所以很大程度上这是一种单共享项信息机制。而项信息机制。而GA中,染色体之间相互共享中,染色体之间相互共享信息,使得整个种群都向最优区域移动。信息,使得整个种群都向最优区域移动。(3) GA的编码技术和遗传操作比较简单,而的编码技术和遗传操作比较简单,而PSO 相对于相对于GA,没有交叉和变异操作,粒子只是,没有交叉和变异操作,

58、粒子只是通过内部速度进行更新,因此原理更简单、参通过内部速度进行更新,因此原理更简单、参数更少、实现更容易。数更少、实现更容易。算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpb

59、est,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 PSOPSO和其他算法和其他算法 2、PSO和和ANNGA可以用来研究可

60、以用来研究NN的三个方面:网络连接权重、网络的三个方面:网络连接权重、网络结构、学习算法。优势在于可处理传统方法不能处理的结构、学习算法。优势在于可处理传统方法不能处理的问题,例如不可导的节点传递函数或没有梯度信息。问题,例如不可导的节点传递函数或没有梯度信息。缺点缺点:在某些问题上性能不是特别好;网络权重的编码和在某些问题上性能不是特别好;网络权重的编码和遗传算子的选择有时较麻烦。遗传算子的选择有时较麻烦。已有利用已有利用PSO来进行神经网络训练。研究表明来进行神经网络训练。研究表明PSO是一是一种很有潜力的神经网络算法。速度较快且有较好的结果。种很有潜力的神经网络算法。速度较快且有较好的结

61、果。且没有遗传算法碰到的问题。且没有遗传算法碰到的问题。算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) )

62、 )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 有关的国际会议ANTS International Workshop on Ant Colony Optimization Internatio

63、nal Workshop on Ant Colony Optimization and Swarm Intelligenceand Swarm Intelligence 1998199819981998年首次召开,每两年一次年首次召开,每两年一次年首次召开,每两年一次年首次召开,每两年一次2006200620062006年年年年 The FifthThe FifthThe FifthThe FifthGECCO(国际演化计算会议国际演化计算会议) Genetic and Evolutionary Computation ConferenceGenetic and Evolutionary Co

64、mputation Conference 每年一次每年一次每年一次每年一次 20062006年年年年 particle swarm optimization (PSO)particle swarm optimization (PSO), that focuses on , that focuses on continuous optimization problems. continuous optimization problems. PSOPSO资源和参考文献资源和参考文献 算法介绍算法介绍PSOPSOPSOPSO初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机粒子初始化为一群随机

65、粒子( ( ( (随机解随机解随机解随机解) ) ) )。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个优解。在每一次的迭代中,粒子通过跟踪两个“极值极值极值极值”( ( ( (pbest,gbestpbest,gbestpbest,gbestpbest,gbest) ) ) )来更新自己。来更新自己。来更新自己。来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的在找到这两个最优

66、值后,粒子通过下面的公式来更新自己的在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。速度和位置。速度和位置。速度和位置。(2)(2)式式(1)(1)式式在式在式(1)(1)、(2)(2)中,中,i i1 1,2 2,MM,MM是该群体中粒子是该群体中粒子的总数的总数 PSOPSO资源和参考文献资源和参考文献 张丽平张丽平.粒子群优化算法的理论于实践粒子群优化算法的理论于实践.博士论文博士论文.2005.1Kennedy J,Eberhart RParticle swarm optimizationProceedings of the IEEE International Conference on Neural Networks199519421948王冬梅王冬梅.群体智能优化算法的研究群体智能优化算法的研究.硕士论文硕士论文.2004.5李建勇李建勇.粒子群优化算法研究粒子群优化算法研究.硕士论文硕士论文.2004.3张燕等张燕等.微粒群优化算法及其改进形式综述微粒群优化算法及其改进形式综述.计算机工程计算机工程与应用与应用.2005.2 13完完

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 建筑/环境 > 施工组织

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号