摘要: Bundle Adjustment Bundle Adjustment 问题,是一个最小化重投影误差(Reprojection error)。考虑 n 个三维空间点 P 和它们的投影 p,我们希望计算相机的位姿 \(R,t\),它的李代 数表示为 \(ξ\)。假设某空间点坐标为$\boldsymbo 阅读全文
posted @ 2021-03-06 11:50 heimazaifei 阅读(206) 评论(0) 推荐(0) 编辑
摘要: ros bfl // refer to : https://blog.csdn.net/zhxue_11/article/details/83822462 #include <filter/extendendkalmanfilter.h> #include <model/linearanalytic 阅读全文
posted @ 2020-07-29 16:04 heimazaifei 阅读(525) 评论(0) 推荐(0) 编辑
摘要: RNN 转自:https://blog.csdn.net/zhaojc1995/article/details/80572098 RNN(Recurrent Neural Network)是一类用于处理序列数据的神经网络。基础的神经网络只在层与层之间建立了权连接,RNN最大的不同之处就是在层之间的神 阅读全文
posted @ 2020-06-18 21:45 heimazaifei 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 深度学习的数学 人工智能历史 ​ 第1代 20 世纪 50~60 年代 逻辑为主 智力游戏等 ​ 第2代 20 世纪 80 年代 知识为主 机器人、机器翻译 ​ 第3代 2010 年至今 数据为主 模式识别、语音识别 ​ 20 世纪的“人教导机器”类型的人工智能,现在仍然活跃在各种领域。在 20 世 阅读全文
posted @ 2020-06-18 20:31 heimazaifei 阅读(661) 评论(0) 推荐(0) 编辑
摘要: 代码: import numpy as np from utils.features import prepare_for_training from utils.hypothesis import sigmoid, sigmoid_gradient class MultilayerPerceptr 阅读全文
posted @ 2020-06-04 21:04 heimazaifei 阅读(559) 评论(0) 推荐(0) 编辑
摘要: PCA 如果1,二维数据,在维空间可以通过不同的正交坐标系表示,数据在坐标系上的方差可以表示数据的信息量。要完成降维工作,需要信息方差最大的坐标系。如图2,保留主元1坐标系。 同一点在不同坐标系的转换可以通过矩阵运算实现。如下所示: \[ \bigl(\begin{smallmatrix} 1/\s 阅读全文
posted @ 2020-05-29 10:58 heimazaifei 阅读(128) 评论(0) 推荐(0) 编辑
摘要: refer to https://zhuanlan.zhihu.com/p/31886934 video https://study.163.com/course/courseLearn.htm?courseId=1003590004&share=1&shareId=1024261853#/lear 阅读全文
posted @ 2020-05-28 10:58 heimazaifei 阅读(115) 评论(0) 推荐(0) 编辑
摘要: KNN 基本思路: 如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 KNN是一种memory-based learning,也叫instance-based learning,属于lazy learning。即它没有明显的前期训练过 阅读全文
posted @ 2020-05-27 20:15 heimazaifei 阅读(596) 评论(0) 推荐(0) 编辑
摘要: Kmeans 基本原理 K-Mmeans算法使用贪心策略求得一个近似解,具体步骤如下: 在样本中随机选取k个样本点充当各个簇的中心点 \[ u_{1},u_{2}...u_{k} \] 计算所有样本点与各个簇中心之间的距离 \[ dist(x^{(i)},u_{i}) \] ​ ,然后把样本点划入最 阅读全文
posted @ 2020-05-27 20:14 heimazaifei 阅读(190) 评论(0) 推荐(0) 编辑
摘要: 决策树 1970年代,一个叫昆兰的大牛找到了用信息论中的熵来度量决策树的决策选择过程,方法一出,它的简洁和高效就引起了轰动,昆兰把这个算法叫做ID3。 熵 越不确定的事物,它的熵就越大,类似方差。 公式: \[ H(X) = -\sum_{i=1}^{n}p_{i}log(p_{i}) \] 联合熵 阅读全文
posted @ 2020-05-27 20:06 heimazaifei 阅读(267) 评论(0) 推荐(0) 编辑