基于改进离散粒子群算法的机组组合优化方法

上传人:wt****50 文档编号:35388948 上传时间:2018-03-15 格式:DOC 页数:17 大小:421.26KB
返回 下载 相关 举报
基于改进离散粒子群算法的机组组合优化方法_第1页
第1页 / 共17页
基于改进离散粒子群算法的机组组合优化方法_第2页
第2页 / 共17页
基于改进离散粒子群算法的机组组合优化方法_第3页
第3页 / 共17页
基于改进离散粒子群算法的机组组合优化方法_第4页
第4页 / 共17页
基于改进离散粒子群算法的机组组合优化方法_第5页
第5页 / 共17页
点击查看更多>>
资源描述

《基于改进离散粒子群算法的机组组合优化方法》由会员分享,可在线阅读,更多相关《基于改进离散粒子群算法的机组组合优化方法(17页珍藏版)》请在金锄头文库上搜索。

1、基于改进离散粒子群算法的机组组合优化方法基于改进离散粒子群算法的机组组合优化方法0 引言引言实际的日常生活中或在处理工程问题的过程中,人们经常遇到在某个问题有多个解决方案可供选择的情况下,如何根据自身所提出的某些性能的要求,从多个可供选择的方案中选择一个可行方案,使所要求的性能指标达到最大或最小,这就是优化问题1。如工程设计中怎样选择参数,使得设计即满足要求又能降低成本;资源分配中,怎样的分配方案既能满足各个方面的基本要求,又能获得好的经济效益等。优化是个古老的课题,早在 17 世纪,英国 Newton 和德国 Leibnitz 创立的微积分就蕴含了优化的内容。而法国数学家 Cauchy 则首

2、次采用梯度下降法解决无约束优化问题,后来针对约束优化问题又提出了 Lagrange 乘数法。人们关于优化问题的研究工作,随着历史的发展不断深入,优化理论和算法迅速发展形成一门新的学科。二十世纪八十年代以来,一些新颖的优化算法得到了迅速发展。人工神经网络(ANN)在一定程度上模拟了人脑的组织结构2-4;遗传算法(GA)借鉴了自然界优胜劣汰的进化思想5, 6;蚁群优化算法 (ACO)受启发于自然界蚂蚁的寻径方式7;模拟退火(SA)思路源于物理学中固体物质的退火过程8, 9;禁忌搜索(TS)模拟了人类有记忆过程的智力过程。这些算法有个共同点:都是通过模拟或揭示某些自然界的现象和过程得到发展,在优化领

3、域,有人称之为智能优化算法 (Intelligent Optimization Algorithms)。本文研究的粒子群优化算法(Particle Swarm Optimization,PSO) ,是在 1995 年由美国社会心理学家 Kennedy 和电气工程师 Eberhart 共同提出的10-12,其基本思想是受他们早期对鸟类群体行为研究结果的启发,并利用了生物学家 Frank Heppner 的生物群体模型。PSO算法从诞生起,就引起了国内外学者的广泛关注,并掀起了该方法的研究热潮,并在短短几年时间里涌现出大量的研究成果,己经在函数优化、神经网络设计、分类、模式识别、信号处理、机器人技

4、术等应用领域取得了成功应用。该算法目前己被“国际演化计算会议”(Conference of Evolutionary Computation,CEC)列为讨论专题之一。PSO 算法在电力系统中的应用研究起步较晚,最近几年它在电力系统领域中逐渐显示出广阔的应用前景,己开始引起电力科学工作者的关注和研究兴趣。如何充分发挥 PSO 算法的优势来解决电力系统的有关难题,已成为一个新的研究热点。1 优化算法基础优化算法基础1.1 最优化问题最优化问题是寻找最小值(最大值问题可转化为需求最小值)的问题。最优化问题根据其目标函数、约束函数的性质以及优化变量的取值等可以分成许多类型,每一种类型的最优化问题根据

5、其性质的不同都有其特定的求解方法。不失一般性,最小化问题可定义为:min(). .|()0,1,2, tf Xst XSX g XimL(1.1)其中,为目标函数,为约束函数,为约束域,为维优化变量。通常,()f X()tg XSXn对的的约束和等式约束可转换的约束。()0tg X ()0tg X当,为线性函数,且时,上述最优化问题即为线性规划问题,其()f X()tg X0X 求解方法有成熟的单纯形法和 Karmarc 方法。当,中至少有一个函数为非线性函数时,上述问题即为非线性规划问题。()f X()tg X非线性规划问题相当复杂,其求解方法多种多样,但到目前仍然没有一种有效的适合所有问题

6、的方法。当优化变量仅取整数值时,上述问题即为整数规划问题,特别是当仅能取 0 或 1XX时,上述问题即为 0-1 整数规划问题。由于整数规划问题属于组合优化范畴,其计算量随变量维数的增长而指数增长,所以存在着“维数灾难”问题。当)所限制的约束空间为整个维欧式空间,即时,上述()0,(1,2,)g XimLnnR最优化问题为无约束优化问题。非线性规划问题(包括无约束优化问题和约束优化问题),由于函数的非线性,使得问题的求解变得十分困难,特别是当目标函数在约束域内存在多峰值时。常见的求解非线性规划问题的优化方法,其求解结果与初值的选择关系很大,也就是说,一般的约束或无约束非线性优化方法均是求目标函

7、数在约束域内的近似极值点,而非真正的最小点。总的说来,求最优解或近似最优解的方法主要有三种:枚举法、启发式算法和搜索算法。(1)枚举法。枚举出可行解空间内的所有可行解,以求出精确最优解。对于连续问题,该方法要求先对其进行离散化处理,这样就有可能产生离散误差而永远达不到最优解。另外,当枚举空间比较大时,该方法的求解效率比较低。(2)启发式算法。寻求一种能产生可行解的启发式规则,以找到一个最优解或近似最优解。该方法的求解效率虽然比较高,但对每一个需要求解的问题都必须找出其特有的启发式规则,这种启发式规则无通用性,不适用于其他问题。(3)搜索算法。寻找一种搜索算法,该算法在可行解空间的一个子空间内进

8、行搜索操作,以找到问题的最优解或近似最优解。该方法虽然保证不了一定能够得到问题的最优解,但若适当地利用一些启发知识,就可近似地使解的质量和求解效率达到一种较好的平衡。搜索算法可分为两大类:平行搜索法和序贯搜索法。作平行搜索时,需要计算目标函数值的自变量节点位置在事先一起选定。而作序贯搜索法时则根据前一轮计算得到的目标函数值的情况用以确定下一轮计算目标函数值的自变量节点位置,因此它带有迭代性。搜索算法又可分确定性搜索法和随机性搜索法两种。确定性搜索算法在寻优过程中,一个搜索点到另一个搜索点转移有确定的转移方法和转移关系,因而其过程可再现,其不足在于寻优结果与初值有关,初值选取不当往往有可能使搜索

9、永远达不到最优点。随机性算法在算法执行过程中加入随机性(因为真正理论意义下的随机数是不可能由计算机产生的,所以实际上用的是伪随机数),需计算算法输出结果的概率平均值。随机算法往往比确定性算法计算时间少,但它的准确率略微降低。1.2 局部优化算法定义 1.1 如果存在,使得对有:* BXBXB(1.2)*()(),Bf Xf XXB成立,其中,为由约束函数限定的搜索空间,则称为在内的局nBSRS* BX()f XB部极小点,为局部极小值。*()bf X常见的优化方法大多为局部优化方法,都是从一个给定的初始点开始,依据一0XS定的方法寻找下一个使得目标函数得到改善的更好解,直至满足某种停止准则。成

10、熟的局部优化方法很多,如 Newron-Raphson 法、共扼梯度法、Fleteher-Reeves 法、Polar-Ribiere法、Davidon-Fleteher-Power(DFP)法、Broyden-Fletcher-Goldfarb-Shsnn(BFGS)方法等,还有专门为求解最小二乘问题而发展的 Leven-berg-Marquardt(LM)算法。所有这些局部优化算法都是针对无约束优化问题而提出的,而且对目标函数均有一定的解析性质要求,如 Newton-RaPhson 法要求目标函数连续可微,同时要求其一阶导数连续。1.3 全局优化算法定义 1.2 如果存在,使得对有:*XS

11、XS(1.3)*()(),f Xf XXS成立,其中为由约束条件限定的搜索空间,则称为在内的全局极小点,nSR*X()f XS)为全局极小值。*()f X目前,全局优化问题也己存在许多算法,如填充函数法等,但比起局部优化问题的众多成熟方法,其间还有很大差距。另外,解析性优化方法对目标函数及约束域均有较强的解析性要求,对于诸如目标函数不连续、约束域不连通、目标函数难以用解析函数表达或者难以精确估计(如仿真优化问题)等问题时,解析确定性优化方法就难以适应。为了可靠解决全局优化问题,人们试图离开解析确定性的优化算法研究,转而探讨对函数解析性质要求较低,甚至不做要求的随机型优化方法。最早的随机型优化方

12、法是基于Monte-Carfo 方法的思想,针对具体问题性质的特点,构造以概率 1 收敛于全局最小点的随机搜索算法。真正有效且具有普遍适应性的随机全局优化方法,是近十多年来人们模拟自然界现象而发展起来的一系列仿生型智能优化算法,如禁忌搜索算法、模拟退火算法、进化类算法、群体智能算法等。1.4 没有免费午餐定理1997 年在 IEEE Transaction on Evolution Computation 上,Wolpert 和 Macready 发表了题为“No Free Lunch Theorems for Optimization”的论文,提出并严格论证了所谓的没有免费午餐定理(No F

13、ree Lunch Theorems),简称 NFL 定理13。NFL 定理的简单表述为:对于所有可能的问题,任意结定两个算法 A、B,如果 A 在某些问题上表现比 B 好(差),那么 A 在其他问题上的表现就一定比 B 差(好),也就是说,任意两个算法 A、B 对所有问题的平均表现度量是完全一样的。该定理的结论是,由于对所有可能函数的相互补偿,最优化算法的性能是等价的。该定理只是定义在有限的搜索空间,对无限搜索空间结论是否成立尚不清楚。在计算机上实现的搜索算法都只能在有限的搜索空间实施,所以该定理对现存的所有算法都可直接使用。自从 NFL 定理提出以来,有关定理本身及其相关结论的争论在学术界

14、一直持续未断,因为 NFL 定理本身涉及到了优化算法最基本的问题,而且其结论多少有点出人意料。NFL 定理的主要价值在于它对研究与应用优化算法时的观念性启示作用。虽然 NFL 定理是在许多假设条件下得出的,但它仍然在很大程度上反映出了优化算法的本质。当我们所面对的是一个大的而且形式多样的适应值函数类时,就必须考虑算法间所表现出的 NFL效应,即若算法 A 在某些函数上的表现超过算法 B,则在这类的其他适应值函数上,算法B 的表现就比 A 要好。因此,对于整个函数类,不存在万能的最佳算法,所有算法在整个函数类上的平均表现度量是一样的。因此,关于优化算法的研究目标就应该从寻找一个大的函数类上的优化

15、算法转变为:(1)以算法为导向,从算法到问题:对于每一个算法,都有其适用和不适用的问题;给定一个算法,尽可能通过理论分析,给出其适用问题类的特征,使其成为一个“指示性”的算法。(2)以问题为导向,从问题到算法:对于一个小的特定的函数集,或者一个特定的实际问题,可以设计专门适用的算法。实际上,大多数在进化算法方面的研究工作可以看作是属于这一范畴的,因为它们主要是根据进化的原理设计新的算法,或者将现有算法进行部分改进,以期对若干特定的函数取得好的优化效果。NFL 定理只是否定了去寻找一个万能的最佳算法的可能性,但对于某些小约函数集合,NFL 定理则认为存在一个在该集合上的好算法。1.5 进化算法近

16、十余年来,遗传算法 (Genetic Algorithms,GA)、进化策略(Evolutionary Strategies,ES)和进化规划(Evolutionary Programming,EP)等进化类算法在理论和应用两方面发展迅速、效果显著,并逐渐走向了融合,形成了一种新颖的模拟进化的计算理论,统称为进化计算(Evolutionary Computation,EC),进化计算的具体实现方法与形式称为进化算法 (Evolutionary Algorithm,EA)。进化算法是一种受生物进化论和遗传学等理论启发而形成的求解优化问题的随机算法,虽然出现了多个具有代表性的重要分支,但它们各自代表了进化计算的不同侧面,各具特点。进化算法是模拟由个体组成的群体的集体学习过程,其中每个个体表示给定问题搜索空间中的一个点。进化算法从初始群体出发,通过选择、变异和重组过程,使群体进化到搜索空间中越来越好的区域。选择过程使群体中适应性好的个体比适应性差的个体有更多的复制机会,重组算子将父辈信息结合在一起并将他们传到

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 生活休闲 > 社会民生

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号