基于分解的多目标进化算法摘要:在传统的多目标优化问题上常常使用分解策略但是,这项策略还没有被广泛的应用到多目标进化优化中本文提出了一种基于分解的多目标进化算法该算法将一个多目标优化问题分解为一组???单目标优化问题并对它们同时优化通过利用与每一个子问题相邻的子问题的优化信息来优化它本身,这是的该算法比MOGLS和非支配排序遗传算法NSGA-Ⅱ相比有更低的计算复杂度实验结果证明:在0-1背包问题和连续的多目标优化问题上,利用一些简单的分解方法本算法就可以比MOGLS和NSGA-Ⅱ表现的更加出色或者表现相近实验也表明目标正态化的MOEA/D算法可以解决规模范围相异的多目标问题,同时使用一个先进分解方法的MOEA/D可以产生一组分别非常均匀的解对于有3个目标问题的测试样例最后,MOEA/D在较小种群数量是的性能,还有可扩展性和敏感性都在本篇论文中通过实验经行了相应的研究I. 介绍多目标优化问题可以用下面式子表示:其中Ω是决策空间,,包含了m个实值目标方法,被称为目标区间对于可以得到的目标集合成为 如果,并且所有的目标函数都是连续的,那么Ω则可以用其中hj是连续的函数,我们可以称(1)为一个连续的多目标优化问题。
如果目标函数互斥,那么同时对所有目标函数求最优解往往是无意义的有意义的是获得一个能维持他们之间平衡的解这些在目标之间获得最佳平衡的以租借被定义Pareto最优 令u, v∈Rm,如果对于任意的i,并且至少存在一个,那么u支配v如果在决策空间中,没有一个点F(y)能够支配F(x)点,那么x就是Pareto最优,F(x)则被称为Pareto最优向量换句话说,对于Pareto最优点在某一个目标函数上的提高,都会造成至少一个其余目标函数的退化所有Pareto最优解的集合称为Pareto集合,所有最优向量的集合被称为Pareto前沿 在许多多目标优化的实际应用中,通过选择器选择一个接近Pareto最优前沿的解作为最后的解大多数多目标优化问题都有许多甚至是无穷个Pareto最优向量,如果想要获得一个完整的最优前沿,将是一件非常耗时的事情另一方面,选择器可能不会专注于获得一个过于庞大的最优解向量集合来解决问题,因为信息的溢出因此,许多多目标优化算法往往是获得一个均匀分布在Pareto最优前沿周围的最优解向量,这样就具有更好的代表性许多研究人员也致力于使用数学模型来获得一个近似的最优前沿 一般来说,在温和控制下多目标优化问题的Pareto最优解,可以看做是一个标量优化问题的最优解(其中目标函数是fi的集合)。
因此,Pareto最优前沿的近似求解可以被分解为一组标量目标优化子问题这个想法是建立在许多传统的对最优前沿求近似解的数学编程方法上的现在有许多的聚合方法,最流行的是切比雪夫法和加权法最近,边界交叉方法也引起了许多的关注 如今多目标进化算法并没有将分解这一概念引入当前的主要发展领域这些算法将多目标优化问题看成一个整体他们并没有通过任何特别的标量优化将每一个解相互联系在一起在一个标量目标优化问题中,所有的解都可以通过他们的目标函数值进行对比,而挑战就是如果找到一个单独的最优解但是在MOP中,支配关系并不能定义一个具有完整顺序的解集合,MOEA则是为了产生一组尽可能分散的可以代表整个PF的解集合因此,那些常见的被设计在标量优化中使用的选择器,可能不能直接的在传统的MOEA中使用可以认为,如果有一个可以为每个体分配相关适应度来反映供选择参考的效用的适应度分配表,那么标量优化进化算法就可以真正的使用在MOP中,但是其他技术:比如交配限制、多样性控制、许多MOP方法的属性和外部种群集合等仍然需要用来加强标量算法的性能因为这个原因,适应度分配已经成为现在MOEA研究的一个主要议题比较流行的适应度分配策略包括基于目标函数的适应度分配比如VRGA,还有基于支配关系的适应度分配比如SPRA-Ⅱ和NSGA-Ⅱ。
分解这种想法在某种程度已经被应用在许多元启发式方法中用于解决MOP问题例如,两相局部搜索方法被认为是一组标量优化问题,其中MOP中的多目标被通过聚合方法分解为一个个单目标问题,一个标量优化算法被应用到标量优化问题中通过一组聚合参数来完成,在之前问题中获得的一组解作为下一个问题的起始点因为聚合原因两者间的差别很小多目标遗传局部搜索目标就是对用过使用甲醛算法或者切比雪夫算法的聚合进行同时优化在每一代中,它对一个随机生成的聚合目标进行优化 在本篇文章中,我们提出了一个新的基于分解的多目标进化算法MOEA/D将MOP分解为N个标量的子问题它通过进化出一个解的种群来同时解决所有子问题对于每一代种群,种群是从所有代中选出的每一个子问题的最优解的集合相邻两个子问题键的关联程度是由它们的聚合系数向量间的距离所决定的对于两个相邻子问题来说,最优解应该是非常相似的对于每一个子问题来说,只是用与其相邻的子问题的信息来优化它MOEA/D有以下特性:l MOEA/D提供了一个简单但是有效的方法,那就是将分解的方法引入到多目标进化计算中对于常常在数学规划领域发展的分解方法,它可以真正的被并入到EA中,通过使用MOEA/D框架来解决MOP问题。
l 因为MOEA/D算法是同时优化N标量子问题而不是直接将MOP问题作为一个整体来解决,那么对于传统的并不是基于分解的MOEA算法来说适应度分配和多样性控制的难度将在MOEA/D框架中得到降低l MOEA/D算法有一个较低的计算复杂度相比于NSGA-Ⅱ和MOGLS总体来说,在MOGLS和MOEA/D同时解决0-1背包问题测试样例中,两者使用相同的分解方法,MOEA/D在解的质量上表现更为出色在一组连续的MOP样例测试中,使用了切比雪夫分解法的MOEA/D方法和NSGA-Ⅱ表现相近在一个3目标的连续样例测试中,使用一个先进的分解方法的MOEA/D算法表现的比NSGA-Ⅱ出色许多当MOEA/D算法使用一个小型种群时也可以产生一组种群数量少的分布均匀的解l 因为在MOEA/D中每一个解都和标量优化问题有关,所以使用标量优化方法显得很自然相反,对于传统的不是基于分解的MOEA算法的一个缺点就是很难找到一个简单的方法来冲分利用标量优化算法本篇文章按如下组织在第二部分介绍了三种分解方法第三部分详细展示了MOEA/D算法在第四和第五部分,对其和MOGLS和NSGA-Ⅱ算法进行了对比,对比结果表明MOEA/D算法表现的更为出色有时表现相近。
在第六部分,展示了更多关于MOEA/D的实验数据在第七部分对本文做了总结II. 多目标优化中的分解算法如今有许多方法可以将对求Pareto前沿近似解的问题转换为一组标量优化问题的在下面,我们将介绍三种我们试验中使用到的方法1. 权重求和方法权重求和是最常见的聚合方法,假设待优化的多目标问题有m个总目标,该函数通过一个非负的权重向量加权到每个目标上将MOP转化为单目标子问题,其数学表达式为:其中,是一组权重向量,对于所有的聚集韩式可以是线性的,也可以是非线性的由如上的定义可知,传统的加权方法利用均匀的权重向量够早了一个不同目标函数值的凸组合根据凸组合的性质,当聚集函数呈线性时,无论如何调整权重系数,都难以搜索到非凸解但是当聚集函数呈非线性时,可以很好地解决以上问题在本文中,将加权求和聚合函数表达式记为上式是为了强调是这个目标函数的一个参数向量,X是待优化的变量与传统的加权方法不同,加权求和聚合方法通过在上述标量优化问题中生成不同的权重向量来产生一组不同的Pareto最优解然而,在最优Pareto面的形状为非凸面的情况下,这种方法并不能获得每一个Pareto最优向量为了克服这些缺点,研究人员做出了一些努力,例如在此方法中引入了2. 切比雪夫聚合方法切比雪夫聚合方法的计算公式为:其中为参考点,对于每一个。
对于每一个Pareto最优点总存在一个权重向量使得上式的解为一个Pareto最优解,该解对应着元多目标问题的Pareto最优解并且通过修改权重向量可以获得Pareto最优面上的不同的解这种方法的一个缺点就是处理连续多目标问题时聚合方法曲线不平滑权重切比雪夫聚合方法是在权重求和和切比雪夫方法的基础上进行的改进,在该方法中添加了参数,将两种聚合方法组合在一起通过调整控制两种聚合方法的比例,力图结合权重求和聚合方法收敛速度快和切比雪夫聚合方法分布性好的特点3. 边界交叉聚合方法几种常见的聚合方法如标准边界交叉方法和规范化标准约束方法可以归类为边界交叉方法这些方法被设计用来处理连续多目标优化问题在一定条件下,连续多目标优化问题的Pareto最优边界是其可行目标集的最右上边界的一部分从几何角度来看,这些边界交叉方法旨在寻找到最上部的边界和一组线的交点在某种意义上说,如果这组线均匀地分布,由此产生的交点可以看做是提供了对整个Pareto最优边界一个很好的近似这些方法能够很好的处理Pareto最优边界为非凸面的问题一般在试验中,通常取一组从参考点出发的射线在数学意义上,定义如下形式的标量优化问题:其中,和在第二个方法中介绍过,分别代表的是一个权重向量和参考点。
如下图所示,约束条件确保了F(x)保持在直线L上,直线L的方向为且穿过点边界交叉方法的目标是把F(x)推尽可能的远,这样算法能够搜索到可行目标空间的边界上述方法的一个缺陷就是它必须处理等式约束在实践中,通常采用惩罚的方法来处理约束基于惩罚的边界交叉方法的详细定义为:其中是一个预设的参数理论上PBI聚合方法将个体向最优Pareto面的逼近分为与权重向量间的距离和沿权重向量与最优Pareto面的距离假设y是F(x)在直线L上的阴影如下图所示,是和y间的距离是F(x)和L间的距离如果参数设置的合适,上面两式的解将非常接近在下文中,称这种方法为基于惩罚的边界交叉方法(PBI)相对于切比雪夫聚合方法,PBI聚合方法及其通用的边界交叉方法举要有如下两个优势:在超过两个目标时,PBI聚合方法和切比雪夫聚合方法是用相同的均匀分布的权重向量,PBI的结果最优解应该比切比雪夫聚合方法获得的最优解分布更加均匀,特别是在目标较少的时候这种现象更加明显如果x支配y,仍然有可能虽然对于和其他边界交叉方法这种可能性非常小然而这种优势需要一定的代价其中之一是必须设定惩罚系数的值众所周知,过大或者过小的惩罚系数将会减弱惩罚方法的性能。
上述三种聚合方法可以用来将多目标精华算法对PF的逼近转为一组标量优化问题足够大的均匀分布的权重向量通常会引导一组Pareto最优向量,这些解可能不是均匀分布的,但是能很好的逼近Pareto最优前沿III. 基于分解的多目标进化算法的框架1. 总体框架本篇文章介绍的基于分解的多目标进化算法需要在有考虑的情况下进行正对性的分解任何分解方法都能够应用在本算法中在下面的描述中,我们使用了切比雪夫的分解法对于定义下面MOEA/D算法,使用别的分解方法影响很小令为一组均匀分布的权重向量,为参考点就像第二部分所说的,对PF的逼近问题可以通过切比雪夫为N个标量优化子问题,其中每一个子问题可以表示成:在一轮运行中,MOEA/D同时优化这N个目标方法其中应该是连续的,如果和相邻那么和的值也应该非常接近因此,通过权重向量任何与相关的信息都应该有助于优化这就是MOEA/D的主要驱动力在MOEA/D中,一个相邻的权重向量定义为一组数个相邻的权重向量与第i个子问题的相邻是所有带有与相邻的权重向量的子问题每一代种群都在所有种群中挑选的最优解的集合在MOEA/D中,只有相邻的子问题可以被用来优化彼此对于第t代种群,使用切比雪。