最优化计算方法(工程优化) 第3章课件

上传人:我*** 文档编号:143468104 上传时间:2020-08-30 格式:PPT 页数:73 大小:2.22MB
返回 下载 相关 举报
最优化计算方法(工程优化) 第3章课件_第1页
第1页 / 共73页
最优化计算方法(工程优化) 第3章课件_第2页
第2页 / 共73页
最优化计算方法(工程优化) 第3章课件_第3页
第3页 / 共73页
最优化计算方法(工程优化) 第3章课件_第4页
第4页 / 共73页
最优化计算方法(工程优化) 第3章课件_第5页
第5页 / 共73页
点击查看更多>>
资源描述

《最优化计算方法(工程优化) 第3章课件》由会员分享,可在线阅读,更多相关《最优化计算方法(工程优化) 第3章课件(73页珍藏版)》请在金锄头文库上搜索。

1、定理(必要条件) 设 (1) 为D的一个内点; (2) 在 可微; (3) 为 的极值点; 则 。,求无约束的某可微函数的最优解, 根据一阶必要条件, 可令函数的梯度等于零,由此求得驻点; 然后用充分条件进行判别,求出所要的解,n元函数,求解无约束优化问题,定理(充分条件) 设 (1) 为D的一个内点; (2) 在 二次连续可微; (3) ; (4) 正定; 则 为 的严格局部极小点。,第3章 常用的一维搜索方法,对某些较简单的函数,这样做有时是可行的; 但对一般n元函数 f(x) 来说,由条件 得到的是一个非线性方程组,解它相当困难。 对于不可微函数,当然谈不上使用这样的方法。 为此,常直接

2、使用迭代法。,第3章 常用的一维搜索方法,为了求函数f(x)的最优解,,然后按某种规划(即算法)找出比,更好的解,再按此种规则找出比,更好的解,如此即可得到一个解的序列,若这个解序列有极限,则称它收敛于x*。,若算法是有效的,则它产生的解序列收敛于该问题的最优解。 计算机只能进行有限次迭代,一般很难得到准确解,而只能得到近似解。当达到满足的精度要求后,即可停止迭代。,迭代法的基本思想,首先给定一个初始估计,理想的终止条件是,或者,问题是 x* 未知,停止迭代时要满足的条件称为终止条件。,迭代法的终止条件,实用的终止条件是根据相继两次迭代的结果,(1)根据相继两次迭代的绝对误差,(2)根据相继两

3、次迭代的相对误差,(3)根据目标函数梯度的模足够小,迭代法的终止条件,设序列 收敛于 ,若存在与迭代次数 k 无关的数,时,称超线性收敛。,时,称线性收敛或一阶收敛。,成立,就称 收敛的阶为 ,或者称 阶收敛。,迭代法的收敛速度,和 ,使k从某个k0开始,都有,当,当 ,且,具有二阶收敛速度。,当,时,称为二阶收敛,也可说,迭代法的一般框架,找初始点,判断当前点是否满足终止条件,找下一个迭代点,最优解,(a) 找初始点,(b) 终止条件,(c) 迭代格式,从当前点出发,按照某种规则找下一个迭代点,注:迭代格式不同,对应着不同的算法,是,否,循环,迭代法的分类,初始点不好找,每一迭代点的目标函数

4、值都在下降,整体下降,局部上升,初始点任意选取,迭代法的分类,仅利用函数值,简单易用,利用导数信息,收敛性结果更强,每次迭代沿某个方向搜索下个迭代点, 最常见研究最多的方法,每次迭代在某区域内搜索下个迭代点,近30年来发展起来的一类方法,现假定已迭代到点,则从,都不能使目标函数值下降。,若 是一局部极小点,,若从 出发至少存在一个方向可使目标函数值有所下降,,图 1,线搜索迭代法的基本思想,出发沿任何方向移动,如图1示,若从 出发至少存在一个方向 可使目标函数值有所下降,可选定这个方向 ,,这相当于在射线,其中,,称为搜索方向;,称为步长或步长因子。,图 1,线搜索迭代法的基本思想,沿这个方向

5、迈进适当的一步,得到下一个迭代点 , 使 。,上选定新点,(1) 选定某一初始点,,并令,(2) 确定搜索方向,(3) 从,出发,沿方向,求步长,,以产生下一个迭代点,(4) 检查得到的新点,是否为极小点或近似极小点。,,转回(2)继续进行迭代。,在以上步骤中,选取搜索方向是最关键的一步。 各种算法的区分,主要在于搜索方向 的不同。,若是,则停止迭代。 否则,令,线搜索迭代法的步骤,找初始点,判断当前点是否满足终止条件,下一个迭代点,最优解,(a) 找初始点,(b) 终止条件,(c) 迭代格式,找步长 和下降方向 , 确定下一个迭代点,不同的 对应不同的算法,是,否,循环,线搜索迭代法的框架分

6、析,不同的 对应不同的算法,线搜索迭代法的框架分析,(c) 迭代格式:不同的 对应不同的算法,各种算法的区 分,主要在于确定搜索方向的方法不同。 后面介绍各种 算法时会给出一个明确的选取 的方法。,在确定了迭代方向后,下一步就要确定迭代步长 ,常见的方法有3种。,(1) 令它等于某一常数(例如令,),这样做不能保证目标,函数值下降。,(2) 第二种称为可接受点算法,只要能使目标函数值下降,可 任意选取步长。,求目标函数 f(x) 的极小点:,这项工作是求以 为变量的一元函数,的极小点,,故常称这一过程为(精确)一维搜索或,线搜索迭代法的框架分析-一维搜索,(精确)线搜索或一维最优化,确定的步长

7、为最佳步长。,(3) 第三种方法的思路是:沿搜索方向使目标函数值下降最多, 即沿射线,在搜索方向上所得最优点处的梯度和该搜索方向正交。,定理 设目标函数,具有一阶连续偏导数,,规则产生,则有,(精确)一维搜索的一个重要性质,按下述,证明:构造函数 ,则得,即 是函数 的极小点,所以,精确的一维搜索 (1) 试探法:按某种方式找试探点,通过比较一系列试探点的函 数值的大小确定极小点。 (2) 区间收缩法:用某种分割技术缩小最优解所在的区间(称 为搜索区间)。 (3) 函数逼近法:用比较简单函数的极小值点近似代替原函数的 极小值点。从几何上看是用比较简单的曲线近似代替原 来的曲线,用简单曲线的极小

8、值点代替原曲线的极小点。 Newton法、二次插值法、三次插值法,常用的一维搜索方法,“成功-失败”法,二分法、0.618法,非精确的一维搜索:通过计算少量的函数值,得到一步长 ,使得后续迭代点 满足 ,即使目标函数要“充分”下降。,常用的一维搜索方法,(1) Armiji-Goldstein准则,其中,要满足,非精确的一维搜索:通过计算少量的函数值,得到一步长 ,使得后续迭代点 满足 ,即使目标函数要“充分”下降。,常用的一维搜索方法,(2) Wolfe-Powell准则,要满足,其中,常用的一维搜索方法,我们主要介绍下面几种方法,“成功失败”法 0.618法(黄金分割法) 二分法 牛顿法(

9、Newton)和插值法 Armiji-Goldstein 准则 Wolfe-Powell 准则,常用的一维搜索方法,对问题 令 则,仅考虑一维无约束优化问题,注意:初始步长不能选得太小,“成功失败”法(进退法),步骤1:选取初始点 xR , 初始步长 h 0 及精度 0, 步骤2:计算 步骤3:若 搜索成功, 转步骤4;否则,搜索失败, 转步骤5。 步骤4:令 x:= x + h, 转步骤 2。 步骤5:判断 若 停止迭代, ;否则令 转步骤 2。 缺点:效率低。优点:可以求搜索区间。,例1:设给定初始点为 a 及初始步长为 h, 求搜索区间c, d 1) 前进运算 首先计算 f (a), f

10、 (a+h), 如果 f (a) f (a+h), 则步长加倍, 计 算f (a+3h). 若 f (a+h)= f (a+3h), 则c=a, d=a+3h; 否则将步 长再加倍,并重复上面运算. 2) 后退运算 如果 f (a) f (a+h), 则将步长缩为原来的1/4并改变符号,即 将步长改为-h/4, 如果 f (a) f (a-h/4),则c=a-h /4,d=a+h; 否则 将步长加倍,并继续后退。,注意: 1. h 选择要适当(太大含多个单峰区间,太小迭代次数多); 2. f (x)单调时无结果 (加迭代次数限制);,“成功失败”法(进退法),例 :利用“成功-失败”法求函数

11、的搜索区间, 取初始点 ,步长,解:取初始点 ,步长,“成功失败”法-算例,得到搜索区间为,0.618法(黄金分割法),0.618法是求单峰函数极值的一种试探法,有的书上 也称为区间收缩法。所谓的单峰函数是指只有一个峰值 的函数。 定义(单峰函数):设 f(x) 是定义在a, b上的函数,若 1) x* a, b 是在a, b上的最小点 , 2) 若对任意 x1 , x2, a x1 f (x2); 2 若x1 x* ,则 f (x1) f (x2). 则称 f(x) 为a, b上的单峰函数。,定理:设 f:RR 在a, b 上是单峰函数, a x1 x2 b 。 那么 1若 f (x1) f

12、 (x2),则 x* x1 , b ,如左下图 2若 f (x1) f (x2) ,则 x* a, x2 , 如右下图,缩短区间的第一个原则-去坏留好原则,0.618法(黄金分割法),证明: 1反证法:设 x* a, b为最小点, 若x* a, x1,由定义 知 f (x1) f (x2 ), 矛盾(条件); 结论成立。 注:上述定理为缩短区间的算法提供了理论根据。,0.618法(黄金分割法),通过上述定理,选二点 x1 x2 , 比较 f (x1 ) 与 f (x2 ) ,可去掉 a , x1 或者x2 , b. 考虑条件: 1对称原则: x1 a = b- x2 (1) (使“坏”的情况去

13、掉,区间长度不小于“好”的情况) 2保持缩减比原则 t =(保留的区间长度原区间长度) 不变。 (使每次保留下来的节点, x1或 x2 ,在下一次的比较中成 为一个相应比例位置的节点 )。 推导缩减比 t : 如图设第一次保留a, x2 (去掉x2 , b), 第二次保留的长度为a, x1 , 则,0.618法(黄金分割法),整理(2) : x2 = a + t( b -a ) x1 = a + t ( x2 -a)= a + t 2 ( b -a ) 结合(1)式: 故 t0.618 注意: 上式有 t 2 = 1-t , 故有 x1 = a+(1-t)(b-a)=a+0.382(b-a)

14、x2 = a+t(b-a)= a+0.618(b-a),0.618法(黄金分割法),t 2 + t 1 = 0,当区间的长度充分小时,可将区间中点取做极小点的近似点。,0.618 法-算法,优点:不要求函数可微,且每次迭代只需计算一 个函数值,计算量小,程序简单 缺点:收敛速度慢。,黄金分割法(0.618 法)的优缺点,0.618法(黄金分割法),例 :试用0.618法求目标函数 的最优解。 给定初始区间0,2,收敛精度,解:第一次区间缩短计算过程:,计算两点及对应函数值:,作数值比较,可见 ,再做置换:,0.618法-算例,第二次区间缩短计算过程:,作数值比较, ,再做置换:,第三次区间缩短

15、计算过程:,作数值比较, ,再做置换:,各次的迭代结果如下:,缺点:收敛速度慢 优点:不要求函数可微,且每次迭代只需计算一个函数 值,计算量小,设 f (x)在 a ,b上可微,求函数f在a,b的极小点,就是求 函数导数为零的点。 如果 则在(a,b)内一定存在一点 x*,使得 为求极小点,可取 , 若 , x0 为最小点, x* = x0 ; , x0 在上升段, x* x0,去掉a, x0 .,二分法-基本思想,用 或者 作新的区间a,b,继续这个过程, 逐步将区间a,b缩小, 当区间a,b的长度充分小时,可将a,b的中点取做极小 点的近似点。,二分法-基本思想,优点:计算量较少,而且总能收敛到一个局部极小点。 缺点:收敛速度较慢,二分法-计算步骤,步骤1:计算 步骤2:若 ,令 ,转步骤3; 若 ,令 ,转步骤3; 若 ,停止, 。 步骤3:若 ,则 ,停止,否则,转步骤1.,例 :试用二分法求目标函数 的最优解。 给定初始区间0,2,收

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > PPT模板库 > PPT素材/模板

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号