随笔分类 -  00 数学基础

不管哪个学科,当面临定量分析时,数学基础理论是绕不开的
摘要:1. 欧式空间 和 射影空间 欧式空间可以由射影空间导出。 例:2D射影空间可以表示具有无穷远的平面,表示范围包含2d欧式空间;3d 同理。 欧式空间 -> 射影空间 将坐标转换为齐次(homogeneous)坐标 (升维,齐次坐标表示一类性质相同坐标簇) 在二维欧式平面添加无穷远线(三维欧式空间添 阅读全文
posted @ 2025-02-26 19:01 ldfm 阅读(5) 评论(0) 推荐(0) 编辑
摘要:思路:线搜索最优化算法,一般是先确定迭代方向(下降方向),然后确定迭代步长; 信赖域方法直接求得迭代位移; 算法分析 第k次迭代,确定迭代位移的问题为(信赖域子问题): minqk(d)=gkTd+12dTBkdk \(s.t.\quad ||d||\le 阅读全文
posted @ 2020-08-22 14:36 ldfm 阅读(1485) 评论(0) 推荐(0) 编辑
摘要:特点 相较于: 最优化算法3【拟牛顿法1】 BFGS算法使用秩二矩阵校正hesse矩阵的近似矩阵B,即: Bk+1=Bk+αμkμkT+βνkνkT 算法分析 将函数在xk+1处二阶展开: \(f(x)=f(x_{k+1}) 阅读全文
posted @ 2020-08-21 10:03 ldfm 阅读(1232) 评论(0) 推荐(0) 编辑
摘要:牛顿法存在的问题 计算量大,每次都需要计算HESSE矩阵,对于自变量维数较高的优化函数,计算量是相当大的; HESSE矩阵可能存在不正定的问题,此时求得的迭代方向可能不是下降方向; 为了解决上述问题,需要求HESSE矩阵近似矩阵B 算法分析 将函数在xk+1处二阶展开: \(f(x)= 阅读全文
posted @ 2020-08-20 18:57 ldfm 阅读(288) 评论(0) 推荐(0) 编辑
摘要:特点:具有超线性收敛速度,只需要计算梯度,避免计算二阶导数 算法步骤 step0: 给定初始值x0,容许误差ϵ step1: 计算梯度gk=f(xk),if norm(gk)<=ϵbreak; 输出当前 阅读全文
posted @ 2020-08-09 18:56 ldfm 阅读(1543) 评论(0) 推荐(0) 编辑
摘要:牛顿算法 对于优化函数f(x),x=(x1;x2;...;xn),二阶连续可导 在xk处泰勒展开,取前三项,即对于优化函数二阶拟合 f(x)=f(xk)+gk(xxk)+12(xxk)Gk(xxk) 其中$g_k=\nabla f( 阅读全文
posted @ 2020-08-08 22:50 ldfm 阅读(3921) 评论(0) 推荐(0) 编辑
摘要:关于最优化算法的框架见 最优化算法确定迭代步长【线搜索技术】 迭代公式xk+1=xk+αkdk 其中αk为第k次迭代步长,dk为第k次迭代方向; 变步长梯度下降法就是每次迭代,步长都需要计算 定步长梯度下降发每次步长都为定值;算法见 最优化算法【最小二 阅读全文
posted @ 2020-08-05 22:48 ldfm 阅读(1361) 评论(0) 推荐(0) 编辑
摘要:无约束问题最优化算法框架 step0: 输入优化函数,确定迭代起始点x0,容许误差 epsilon; step1: if 容许误差条件满足,终止迭代;输出当前x值; else 计算迭代方向dk;迭代步长 alpha_k; // dk必须满足收敛条件;关于迭代步长的计算,就是线搜索技术 阅读全文
posted @ 2020-08-05 17:14 ldfm 阅读(1342) 评论(0) 推荐(0) 编辑
摘要:使用条件 优化函数在搜索区间内为单峰函数 算法 算法类似于二分查找算法,能够求单峰函数在搜索区间的极值 算法如下: step0: 确定单峰函数f(x)\(\)[a0,b0]\(\)δ=ab, ϵ=f(b)f(a) 阅读全文
posted @ 2020-08-04 15:45 ldfm 阅读(1612) 评论(0) 推荐(0) 编辑
摘要:一、牛顿法 对于优化函数f(x),在x0处泰勒展开, f(x)=f(x0)+f(x0)(xx0)+o(Δx) 去其线性部分,忽略高阶无穷小,令f(x)=0得: x=x0f(x0)f(x0) 得牛顿法迭代公 阅读全文
posted @ 2020-07-31 21:24 ldfm 阅读(1217) 评论(0) 推荐(0) 编辑
摘要:##一、最小二乘法 对于给定的数据集D=(x1,y1),(x2,y2),...,(xm,ym),其中xi=(x;x;...;x)。 对上述数据进行拟合: f(xi)=ω^Txi^ 其中:\(\hat\omega = 阅读全文
posted @ 2020-07-29 21:55 ldfm 阅读(1191) 评论(0) 推荐(0) 编辑
摘要:建立决策树 参考: "ID3决策树" 绘图子程序 "python绘制决策树" 效果 阅读全文
posted @ 2020-05-16 15:28 ldfm 阅读(1226) 评论(0) 推荐(0) 编辑
摘要:原理 求解最佳投影方向,使得同类投影点尽可能的进,异类投影点尽可能的远 同类投影点距离用同类样本协方差矩阵表示 ωTΣiωi 异类投影点距离 $$ ||\omega^T\mu_0 \omega^T\mu_1||_2^2$ 阅读全文
posted @ 2020-05-03 19:01 ldfm 阅读(921) 评论(0) 推荐(0) 编辑
摘要:#名为回归,其实为一种分类算法 数据集: D={xi,yi}i=1,2,...,n 其中 xi=(xi1;xi2;...;xim) 即每个样本有m个属性 $$ y_i = \begin 1 , & \t 阅读全文
posted @ 2020-05-02 23:09 ldfm 阅读(770) 评论(0) 推荐(0) 编辑
摘要:对于2个变量的样本回归分析,L2和L1正则化基本相同,仅仅正则化项不同 LASSO回归为在损失函数加入||ω||1 ,ω 的1范数 而 岭回归为||ω||22ω 的2范数 *矩阵、向量范数 *L1正则化(岭回归) #LASSO 阅读全文
posted @ 2020-04-30 22:52 ldfm 阅读(2622) 评论(0) 推荐(0) 编辑
摘要:样本 xi=(xi1;xi2;...;xim)yi 每个样本有m个变量 回归面 f(xi)=xiTω+b ω=(ω1;ω2;...;ωm) $$\hat 阅读全文
posted @ 2020-04-30 17:01 ldfm 阅读(1299) 评论(0) 推荐(0) 编辑
摘要:norm:翻译为模或者内积,广义来说是一个函数 vector(向量) norms 1. eculidean(欧几里得)norm vector x=(x1;x2;...;xn) 其eculidean norm为 :\(||x|| = \sqrt{x^T x} = (\sum_{i 阅读全文
posted @ 2020-04-29 20:28 ldfm 阅读(6533) 评论(0) 推荐(0) 编辑
摘要:数据集: D={(x1,y1),(x2,y2),...,(xm,ym)} 其中: xi=(xi1;xi2;...;xid) 单属性,二分类 分类面: f(x)=ωx+b 最小均方差求$\omega 阅读全文
posted @ 2020-04-27 18:34 ldfm 阅读(924) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示