基于分解的多目标进化算法

上传人:liy****000 文档编号:117274125 上传时间:2019-12-05 格式:DOCX 页数:15 大小:801.91KB
返回 下载 相关 举报
基于分解的多目标进化算法_第1页
第1页 / 共15页
基于分解的多目标进化算法_第2页
第2页 / 共15页
基于分解的多目标进化算法_第3页
第3页 / 共15页
基于分解的多目标进化算法_第4页
第4页 / 共15页
基于分解的多目标进化算法_第5页
第5页 / 共15页
点击查看更多>>
资源描述

《基于分解的多目标进化算法》由会员分享,可在线阅读,更多相关《基于分解的多目标进化算法(15页珍藏版)》请在金锄头文库上搜索。

1、基于分解的多目标进化算法摘要:在传统的多目标优化问题上常常使用分解策略。但是,这项策略还没有被广泛的应用到多目标进化优化中。本文提出了一种基于分解的多目标进化算法。该算法将一个多目标优化问题分解为一组?单目标优化问题并对它们同时优化。通过利用与每一个子问题相邻的子问题的优化信息来优化它本身,这是的该算法比MOGLS和非支配排序遗传算法NSGA-相比有更低的计算复杂度。实验结果证明:在0-1背包问题和连续的多目标优化问题上,利用一些简单的分解方法本算法就可以比MOGLS和NSGA-表现的更加出色或者表现相近。实验也表明目标正态化的MOEA/D算法可以解决规模范围相异的多目标问题,同时使用一个先进

2、分解方法的MOEA/D可以产生一组分别非常均匀的解对于有3个目标问题的测试样例。最后,MOEA/D在较小种群数量是的性能,还有可扩展性和敏感性都在本篇论文中通过实验经行了相应的研究。I. 介绍多目标优化问题可以用下面式子表示:Maximize F(x)=(f1x.fmx)Tsubject to x其中是决策空间,F:Rm,包含了m个实值目标方法,Rm被称为目标区间。对于可以得到的目标集合成为F(x)|x。如果xRm,并且所有的目标函数都是连续的,那么则可以用=xRn|hj(x)0, j=1m其中hj是连续的函数,我们可以称(1)为一个连续的多目标优化问题。如果目标函数互斥,那么同时对所有目标函

3、数求最优解往往是无意义的。有意义的是获得一个能维持他们之间平衡的解。这些在目标之间获得最佳平衡的以租借被定义Pareto最优。令u, vRm,如果uivi对于任意的i,并且至少存在一个ujvj(i,j1.m),那么u支配v。如果在决策空间中,没有一个点F(y)能够支配F(x)点,那么x就是Pareto最优,F(x)则被称为Pareto最优向量。换句话说,对于Pareto最优点在某一个目标函数上的提高,都会造成至少一个其余目标函数的退化。所有Pareto最优解的集合称为Pareto集合,所有最优向量的集合被称为Pareto前沿。在许多多目标优化的实际应用中,通过选择器选择一个接近Pareto最优

4、前沿的解作为最后的解。大多数多目标优化问题都有许多甚至是无穷个Pareto最优向量,如果想要获得一个完整的最优前沿,将是一件非常耗时的事情。另一方面,选择器可能不会专注于获得一个过于庞大的最优解向量集合来解决问题,因为信息的溢出。因此,许多多目标优化算法往往是获得一个均匀分布在Pareto最优前沿周围的最优解向量,这样就具有更好的代表性。许多研究人员也致力于使用数学模型来获得一个近似的最优前沿。一般来说,在温和控制下多目标优化问题的Pareto最优解,可以看做是一个标量优化问题的最优解(其中目标函数是fi的集合)。因此,Pareto最优前沿的近似求解可以被分解为一组标量目标优化子问题。这个想法

5、是建立在许多传统的对最优前沿求近似解的数学编程方法上的。现在有许多的聚合方法,最流行的是切比雪夫法和加权法。最近,边界交叉方法也引起了许多的关注。如今多目标进化算法并没有将分解这一概念引入当前的主要发展领域。这些算法将多目标优化问题看成一个整体。他们并没有通过任何特别的标量优化将每一个解相互联系在一起。在一个标量目标优化问题中,所有的解都可以通过他们的目标函数值进行对比,而挑战就是如果找到一个单独的最优解。但是在MOP中,支配关系并不能定义一个具有完整顺序的解集合,MOEA则是为了产生一组尽可能分散的可以代表整个PF的解集合。因此,那些常见的被设计在标量优化中使用的选择器,可能不能直接的在传统

6、的MOEA中使用。可以认为,如果有一个可以为每个体分配相关适应度来反映供选择参考的效用的适应度分配表,那么标量优化进化算法就可以真正的使用在MOP中,但是其他技术:比如交配限制、多样性控制、许多MOP方法的属性和外部种群集合等仍然需要用来加强标量算法的性能。因为这个原因,适应度分配已经成为现在MOEA研究的一个主要议题。比较流行的适应度分配策略包括基于目标函数的适应度分配比如VRGA,还有基于支配关系的适应度分配比如SPRA-和NSGA-。分解这种想法在某种程度已经被应用在许多元启发式方法中用于解决MOP问题。例如,两相局部搜索方法被认为是一组标量优化问题,其中MOP中的多目标被通过聚合方法分

7、解为一个个单目标问题,一个标量优化算法被应用到标量优化问题中通过一组聚合参数来完成,在之前问题中获得的一组解作为下一个问题的起始点因为聚合原因两者间的差别很小。多目标遗传局部搜索目标就是对用过使用甲醛算法或者切比雪夫算法的聚合进行同时优化。在每一代中,它对一个随机生成的聚合目标进行优化。在本篇文章中,我们提出了一个新的基于分解的多目标进化算法。MOEA/D将MOP分解为N个标量的子问题。它通过进化出一个解的种群来同时解决所有子问题。对于每一代种群,种群是从所有代中选出的每一个子问题的最优解的集合。相邻两个子问题键的关联程度是由它们的聚合系数向量间的距离所决定的。对于两个相邻子问题来说,最优解应

8、该是非常相似的。对于每一个子问题来说,只是用与其相邻的子问题的信息来优化它。MOEA/D有以下特性:l MOEA/D提供了一个简单但是有效的方法,那就是将分解的方法引入到多目标进化计算中。对于常常在数学规划领域发展的分解方法,它可以真正的被并入到EA中,通过使用MOEA/D框架来解决MOP问题。l 因为MOEA/D算法是同时优化N标量子问题而不是直接将MOP问题作为一个整体来解决,那么对于传统的并不是基于分解的MOEA算法来说适应度分配和多样性控制的难度将在MOEA/D框架中得到降低。l MOEA/D算法有一个较低的计算复杂度相比于NSGA-和MOGLS。总体来说,在MOGLS和MOEA/D同

9、时解决0-1背包问题测试样例中,两者使用相同的分解方法,MOEA/D在解的质量上表现更为出色。在一组连续的MOP样例测试中,使用了切比雪夫分解法的MOEA/D方法和NSGA-表现相近。在一个3目标的连续样例测试中,使用一个先进的分解方法的MOEA/D算法表现的比NSGA-出色许多。当MOEA/D算法使用一个小型种群时也可以产生一组种群数量少的分布均匀的解。l 因为在MOEA/D中每一个解都和标量优化问题有关,所以使用标量优化方法显得很自然。相反,对于传统的不是基于分解的MOEA算法的一个缺点就是很难找到一个简单的方法来冲分利用标量优化算法。本篇文章按如下组织。在第二部分介绍了三种分解方法。第三

10、部分详细展示了MOEA/D算法。在第四和第五部分,对其和MOGLS和NSGA-算法进行了对比,对比结果表明MOEA/D算法表现的更为出色有时表现相近。在第六部分,展示了更多关于MOEA/D的实验数据。在第七部分对本文做了总结。II. 多目标优化中的分解算法如今有许多方法可以将对求Pareto前沿近似解的问题转换为一组标量优化问题的。在下面,我们将介绍三种我们试验中使用到的方法。1. 权重求和方法权重求和是最常见的聚合方法,假设待优化的多目标问题有m个总目标,该函数通过一个非负的权重向量=(1m)加权到每个目标上将MOP转化为单目标子问题,其数学表达式为:maximize gwsx=i=1mif

11、i(x)subject to x其中,=(1m)是一组权重向量,对于所有的i=1,2,m,i0&i=1mi=1。聚集韩式可以是线性的,也可以是非线性的。由如上的定义可知,传统的加权方法利用均匀的权重向量够早了一个不同目标函数值的凸组合。根据凸组合的性质,当聚集函数呈线性时,无论如何调整权重系数,都难以搜索到非凸解。但是当聚集函数呈非线性时,可以很好地解决以上问题。在本文中,将加权求和聚合函数表达式记为上式是为了强调是这个目标函数的一个参数向量,X是待优化的变量。与传统的加权方法不同,加权求和聚合方法通过在上述标量优化问题中生成不同的权重向量来产生一组不同的Pareto最优解。然而,在最优Par

12、eto面的形状为非凸面的情况下,这种方法并不能获得每一个Pareto最优向量。为了克服这些缺点,研究人员做出了一些努力,例如在此方法中引入了-约束。2. 切比雪夫聚合方法切比雪夫聚合方法的计算公式为:minimize gtex,z*=max1imi|fix-z*| 其中x,z*=(z1*,zi*)T为参考点,对于每一个i=1,m,有zi*=minfi(x)|x。对于每一个Pareto最优点x*总存在一个权重向量使得上式的解为一个Pareto最优解,该解对应着元多目标问题的Pareto最优解。并且通过修改权重向量可以获得Pareto最优面上的不同的解。这种方法的一个缺点就是处理连续多目标问题时聚

13、合方法曲线不平滑。权重切比雪夫聚合方法是在权重求和和切比雪夫方法的基础上进行的改进,在该方法中添加了参数,将两种聚合方法组合在一起。通过调整控制两种聚合方法的比例,力图结合权重求和聚合方法收敛速度快和切比雪夫聚合方法分布性好的特点。mingATx,z*=maxi=1,2,mi|fix-z*|+j=1m|fjx-zj*|3. 边界交叉聚合方法几种常见的聚合方法如标准边界交叉方法和规范化标准约束方法可以归类为边界交叉方法。这些方法被设计用来处理连续多目标优化问题。在一定条件下,连续多目标优化问题的Pareto最优边界是其可行目标集的最右上边界的一部分。从几何角度来看,这些边界交叉方法旨在寻找到最上

14、部的边界和一组线的交点。在某种意义上说,如果这组线均匀地分布,由此产生的交点可以看做是提供了对整个Pareto最优边界一个很好的近似。这些方法能够很好的处理Pareto最优边界为非凸面的问题。一般在试验中,通常取一组从参考点出发的射线。在数学意义上,定义如下形式的标量优化问题:mingbix,z*=d其中,和z*在第二个方法中介绍过,分别代表的是一个权重向量和参考点。如下图所示,约束条件z*-Fx=d确保了F(x)保持在直线L上,直线L的方向为且穿过点z*。边界交叉方法的目标是把F(x)推尽可能的远,这样算法能够搜索到可行目标空间的边界。上述方法的一个缺陷就是它必须处理等式约束。在实践中,通常

15、采用惩罚的方法来处理约束。基于惩罚的边界交叉方法的详细定义为:mingbipx,z*=d1+d2d1=z*-FxT|d2=|Fx-(z*-d1)|其中x,0是一个预设的参数。理论上PBI聚合方法将个体向最优Pareto面的逼近分为与权重向量间的距离和沿权重向量与最优Pareto面的距离。假设y是F(x)在直线L上的阴影。如下图所示,d1是z*和y间的距离。d2是F(x)和L间的距离。如果参数设置的合适,上面两式的解将非常接近。在下文中,称这种方法为基于惩罚的边界交叉方法(PBI)。相对于切比雪夫聚合方法,PBI聚合方法及其通用的边界交叉方法举要有如下两个优势:在超过两个目标时,PBI聚合方法和切比雪夫聚合方法是用相同的均匀分布的权重向量,PBI的结果最优解应该比切比雪夫聚合方法获得的最优解分布更加均匀,特别是在目标较少的时候这种现象更加明显。如果x支配y,仍然有可能gtex,z*=gtey,z*。虽然对于gbip和其他边界交叉方法这种可能性非常小。然而这种优势需要一定的代价。其中之一是必须设定惩罚系数的值。众所周知,过大或者过小的惩罚系数将会减弱惩罚方法的性能。上述三种聚合方法可以用来将多目标精华算法对PF的逼近转为一组标量优化问题。足够大的均匀分布的权重向量通常会引导一组Pareto最优向量,这些解可能不是均匀分布的,但是能很好的

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 学术论文 > 毕业论文

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号