摘要: 高斯消元 的有线性方程组An×n * X n*1= Bn*1 当A满秩是方程组有唯一解 高斯消元就是一个简单的解方程组的办法 高斯消元就是简单的通过初等行变换,将A变成一个上三角矩阵 这样就能从下到上一个一个的解出每个x的值,从而获得方程组的解 简单解释: 获取上三角矩阵之后方程变为 a11x1 + 阅读全文
posted @ 2018-11-27 20:12 shensobaolibin 阅读(494) 评论(0) 推荐(0) 编辑
摘要: 之前在python中调用c++是通过命令行调用的,参数传递是使用文件IO的形式,所以会特别慢 现在用ctypes,参数传递传的只是内存中的指针,这就很舒服 现在来总结下如何使用cytpes在python中调用c (Ubuntu系统下) 首先写一个test.c的源码 然后编译成.so文件 命令如下 g 阅读全文
posted @ 2018-11-03 14:16 shensobaolibin 阅读(2934) 评论(0) 推荐(0) 编辑
摘要: 概率,期望,方差 只有一个变量时 F(x<=a) = ∫-∞af(x)dx 当区间取负无穷到正无穷时积分为1 推广到多元之后: 同理,当区间取满整个空间时,积分为1 f被称为概率密度函数 边缘分布函数 当多元函数的n-m个变量取负无穷到正无穷之后 概率函数变为有m个自变量的函数(一共有n个自变量) 阅读全文
posted @ 2018-10-10 10:08 shensobaolibin 阅读(2048) 评论(0) 推荐(0) 编辑
摘要: 我们能得到一个函数f在区间[a,b]上某些点的值或者这些点上的高阶导数 我们就能通过插值法去得到一个函数g,g与f是非常相近的 一般来说g分为三类,一类是n次多项式 an*xn + an-1*xn-1 + .......+a0,一类是三角多项式,最后一类是分段n次多项式 多项式插值 这个可以说是最简 阅读全文
posted @ 2018-10-09 22:25 shensobaolibin 阅读(6017) 评论(0) 推荐(0) 编辑
摘要: 方法误差与舍入误差 方法误差 在用数学模型去预测某个值的时候,由于选取的数学模型产生的误差 例如使用泰勒展开式求取近似f(x)时,其对应的拉格朗日余项即为方法误差 舍入误差 计算机进行数值计算时产生的误差,然后计算时产生的新误差 比如用计算机用3.14去近似pi 误差限 对于某个算法或者说数学模型, 阅读全文
posted @ 2018-10-08 22:16 shensobaolibin 阅读(1705) 评论(0) 推荐(0) 编辑
摘要: 并查集的原理很简单,参加我的csdn博客https://blog.csdn.net/cbcbcbz/article/details/60777238 这里放一个并查集的python实现 输出为[array([2]), array([0, 3]), array([1, 4])] 时间复杂度O(nlog 阅读全文
posted @ 2018-10-01 11:30 shensobaolibin 阅读(805) 评论(2) 推荐(0) 编辑
摘要: 图像的灰度直方图 一幅图像由不同灰度值的像素组成,图像中灰度的分布情况是该图像的一个重要特征。图像的灰度直方图就描述了图像中灰度分布情况,能够很直观的展示出图像中各个灰度级所占的多少。图像的灰度直方图是灰度级的函数,描述的是图像中具有该灰度级的像素的个数:其中,横坐标是灰度级,纵坐标是该灰度级出现的 阅读全文
posted @ 2018-09-20 11:00 shensobaolibin 阅读(264) 评论(0) 推荐(0) 编辑
摘要: 这个东西其实很简单 比如我有n个点,我要将他们m类 那么我随机的先去m个点 对与途中的每个点,我计算他们与这m个点的距离 计算完之后,找距离最小的i,将这个点归为点i的那一类 这样我们就得到了m类 然后对于这m类,我们求每一类点的平均值 将这些平均值作为点,再做一次迭代 当迭代到一定次数之后,我们这 阅读全文
posted @ 2018-08-31 19:26 shensobaolibin 阅读(322) 评论(0) 推荐(0) 编辑
摘要: 通过支持向量机,我们可以发现 支持向量机能很好的将两个线性可分的样本分开 那么对于不是线性可分的样本,我们就要通过核函数去处理他了 也就是说,核函数的做用就是将线性不可分的样本,通过核函数印射到另外一个空间中 是样本变成线性可分的 那么常用的核函数有两种 一种是线性核函数 也就是直接x‘ = w * 阅读全文
posted @ 2018-08-31 19:22 shensobaolibin 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 二分类,我们之前使用的激活函数是sigmoid 对于支持向量机来说我们使用的损失函数不同 最后那个1/2 theta^2是正则化项而已 那么为什么这个激活函数能做到大间距分类器呢 当我们训练到一定程度的时候,由于我们cost function 的特性 可以等于0 那么也就是说只剩下 也就是说在训练的 阅读全文
posted @ 2018-08-30 11:34 shensobaolibin 阅读(142) 评论(0) 推荐(0) 编辑