摘要: 注意 输入【step】不代表传递函数输入【力】,表示期望控制曲线;PID输出为传递函数输入【力】,即表示系统的输入力【被控量】。 这样就实现了系统输出跟踪期望输入【step】。 阅读全文
posted @ 2020-10-10 21:27 ldfm 阅读(81) 评论(0) 推荐(0) 编辑
摘要: swarm robotics, every robot mast can feel the environment,and do some optimize it; 阅读全文
posted @ 2020-08-24 15:37 ldfm 阅读(146) 评论(0) 推荐(0) 编辑
摘要: 思路:线搜索最优化算法,一般是先确定迭代方向(下降方向),然后确定迭代步长; 信赖域方法直接求得迭代位移; 算法分析 第$k$次迭代,确定迭代位移的问题为(信赖域子问题): \(min q_k(d)=g_k^Td+\frac{1}{2}d^TB_kd_k\) \(s.t.\quad ||d||\le 阅读全文
posted @ 2020-08-22 14:36 ldfm 阅读(1316) 评论(0) 推荐(0) 编辑
摘要: 特点 相较于: 最优化算法3【拟牛顿法1】 BFGS算法使用秩二矩阵校正hesse矩阵的近似矩阵$B$,即: \(B_{k+1}=B_k+\alpha\mu_k\mu_k^T+\beta\nu_k\nu_k^T\) 算法分析 将函数在$x_{k+1}$处二阶展开: \(f(x)=f(x_{k+1}) 阅读全文
posted @ 2020-08-21 10:03 ldfm 阅读(1077) 评论(0) 推荐(0) 编辑
摘要: 牛顿法存在的问题 计算量大,每次都需要计算HESSE矩阵,对于自变量维数较高的优化函数,计算量是相当大的; HESSE矩阵可能存在不正定的问题,此时求得的迭代方向可能不是下降方向; 为了解决上述问题,需要求HESSE矩阵近似矩阵$B$ 算法分析 将函数在$x_{k+1}$处二阶展开: \(f(x)= 阅读全文
posted @ 2020-08-20 18:57 ldfm 阅读(255) 评论(0) 推荐(0) 编辑
摘要: 特点:具有超线性收敛速度,只需要计算梯度,避免计算二阶导数 算法步骤 \(step0:\) 给定初始值$x_0$,容许误差$\epsilon$ \(step1:\) 计算梯度$g_k=\nabla f(x_k)$,if \(norm(g_k)<=\epsilon\), \(break;\) 输出当前 阅读全文
posted @ 2020-08-09 18:56 ldfm 阅读(1387) 评论(0) 推荐(0) 编辑
摘要: 牛顿算法 对于优化函数$f(x)$,\(x=(x_1;x_2;...;x_n)\),二阶连续可导 在$x_k$处泰勒展开,取前三项,即对于优化函数二阶拟合 \(f(x)=f(x_k)+g_k(x-x_k)+\frac{1}{2}(x-x_k)G_k(x-x_k)\) 其中$g_k=\nabla f( 阅读全文
posted @ 2020-08-08 22:50 ldfm 阅读(3472) 评论(0) 推荐(0) 编辑
摘要: 矩阵正定 对于实对称矩阵$M_{n\times n}$正定<=>非任意零实系数向量z,\(z^TMz\)>0 对于埃尔米特矩阵(复数共轭对称矩阵)$M_{n\times n}$正定<=>对于任意非零复数向量z,\(z^*Mz>0\) 等价条件 矩阵$M$的所有特征值都是正的; 顺序主子式大于零 矩阵 阅读全文
posted @ 2020-08-07 21:37 ldfm 阅读(6049) 评论(0) 推荐(0) 编辑
摘要: 关于最优化算法的框架见 最优化算法确定迭代步长【线搜索技术】 迭代公式$x_{k+1}=x_k+\alpha_kd_k$ 其中$\alpha_k$为第k次迭代步长,$d_k$为第k次迭代方向; 变步长梯度下降法就是每次迭代,步长都需要计算 定步长梯度下降发每次步长都为定值;算法见 最优化算法【最小二 阅读全文
posted @ 2020-08-05 22:48 ldfm 阅读(1141) 评论(0) 推荐(0) 编辑
摘要: 无约束问题最优化算法框架 \(step0:\) 输入优化函数,确定迭代起始点x0,容许误差 epsilon; \(step1:\) if 容许误差条件满足,终止迭代;输出当前x值; else 计算迭代方向dk;迭代步长 alpha_k; // dk必须满足收敛条件;关于迭代步长的计算,就是线搜索技术 阅读全文
posted @ 2020-08-05 17:14 ldfm 阅读(1256) 评论(0) 推荐(0) 编辑