08 2020 档案

摘要:swarm robotics, every robot mast can feel the environment,and do some optimize it; 阅读全文
posted @ 2020-08-24 15:37 ldfm 阅读(146) 评论(0) 推荐(0) 编辑
摘要:思路:线搜索最优化算法,一般是先确定迭代方向(下降方向),然后确定迭代步长; 信赖域方法直接求得迭代位移; 算法分析 第k次迭代,确定迭代位移的问题为(信赖域子问题): minqk(d)=gkTd+12dTBkdk \(s.t.\quad ||d||\le 阅读全文
posted @ 2020-08-22 14:36 ldfm 阅读(1485) 评论(0) 推荐(0) 编辑
摘要:特点 相较于: 最优化算法3【拟牛顿法1】 BFGS算法使用秩二矩阵校正hesse矩阵的近似矩阵B,即: Bk+1=Bk+αμkμkT+βνkνkT 算法分析 将函数在xk+1处二阶展开: \(f(x)=f(x_{k+1}) 阅读全文
posted @ 2020-08-21 10:03 ldfm 阅读(1232) 评论(0) 推荐(0) 编辑
摘要:牛顿法存在的问题 计算量大,每次都需要计算HESSE矩阵,对于自变量维数较高的优化函数,计算量是相当大的; HESSE矩阵可能存在不正定的问题,此时求得的迭代方向可能不是下降方向; 为了解决上述问题,需要求HESSE矩阵近似矩阵B 算法分析 将函数在xk+1处二阶展开: \(f(x)= 阅读全文
posted @ 2020-08-20 18:57 ldfm 阅读(288) 评论(0) 推荐(0) 编辑
摘要:特点:具有超线性收敛速度,只需要计算梯度,避免计算二阶导数 算法步骤 step0: 给定初始值x0,容许误差ϵ step1: 计算梯度gk=f(xk),if norm(gk)<=ϵbreak; 输出当前 阅读全文
posted @ 2020-08-09 18:56 ldfm 阅读(1543) 评论(0) 推荐(0) 编辑
摘要:牛顿算法 对于优化函数f(x),x=(x1;x2;...;xn),二阶连续可导 在xk处泰勒展开,取前三项,即对于优化函数二阶拟合 f(x)=f(xk)+gk(xxk)+12(xxk)Gk(xxk) 其中$g_k=\nabla f( 阅读全文
posted @ 2020-08-08 22:50 ldfm 阅读(3921) 评论(0) 推荐(0) 编辑
摘要:矩阵正定 对于实对称矩阵Mn×n正定<=>非任意零实系数向量z,zTMz>0 对于埃尔米特矩阵(复数共轭对称矩阵)Mn×n正定<=>对于任意非零复数向量z,zMz>0 等价条件 矩阵M的所有特征值都是正的; 顺序主子式大于零 矩阵 阅读全文
posted @ 2020-08-07 21:37 ldfm 阅读(6375) 评论(0) 推荐(0) 编辑
摘要:关于最优化算法的框架见 最优化算法确定迭代步长【线搜索技术】 迭代公式xk+1=xk+αkdk 其中αk为第k次迭代步长,dk为第k次迭代方向; 变步长梯度下降法就是每次迭代,步长都需要计算 定步长梯度下降发每次步长都为定值;算法见 最优化算法【最小二 阅读全文
posted @ 2020-08-05 22:48 ldfm 阅读(1361) 评论(0) 推荐(0) 编辑
摘要:无约束问题最优化算法框架 step0: 输入优化函数,确定迭代起始点x0,容许误差 epsilon; step1: if 容许误差条件满足,终止迭代;输出当前x值; else 计算迭代方向dk;迭代步长 alpha_k; // dk必须满足收敛条件;关于迭代步长的计算,就是线搜索技术 阅读全文
posted @ 2020-08-05 17:14 ldfm 阅读(1342) 评论(0) 推荐(0) 编辑
摘要:使用条件 优化函数在搜索区间内为单峰函数 算法 算法类似于二分查找算法,能够求单峰函数在搜索区间的极值 算法如下: step0: 确定单峰函数f(x)\(\)[a0,b0]\(\)δ=ab, ϵ=f(b)f(a) 阅读全文
posted @ 2020-08-04 15:45 ldfm 阅读(1612) 评论(0) 推荐(0) 编辑
摘要:一、雅可比(Jacobi)矩阵 对于函数 y=f(x) 其中,x=(x1;x2,...;xn),y=(y1;y2;...;ym) 则Jacobi矩阵为: \[ J= \begin{pmatrix} \frac{\partial y_1}{\partial x_1} 阅读全文
posted @ 2020-08-01 14:10 ldfm 阅读(903) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示