上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 19 下一页
摘要: 异常检测: 判断测试集是否异常。如下例中对飞机引擎的判断: 我们建立评估模型概率模型p(x)来判断,如果p(x)<ε异常,反之正常 用处举例:购物网站用户异常检测,计算机集群异常检测 算法实现: 建立评估模型: 1.选择相应的变量。 2.变量拟合高斯分布。 3.计算概率。 两个参数时的概率模型图: 阅读全文
posted @ 2017-08-24 07:07 郑哲 阅读(318) 评论(0) 推荐(0) 编辑
摘要: 我们通过PCA把二维数据降到一维。 那么怎么把一维数据变回二维 通过X=UZ 我们得到的点都在z轴上 这个X十分解决x了 如何去选择k值 PCA的成本函数: 总变差(这些x长度的平方均值): 意味这我的平均向量离0向量有多远 我们选择k使下面的公式成立: 使得99%差异性得到保留 除了0.01,人们 阅读全文
posted @ 2017-08-23 16:29 郑哲 阅读(569) 评论(0) 推荐(0) 编辑
摘要: 比如说我们有两个特征变量,我们想让他变成一个变量 首先我们画一条线,做各个点到这条线上的投影,箭头所指的蓝色线段为 投影误差,PCA不会选择红色这条线投影,因为投影误差太大了。 所以PCA的目标是使投影误差最小化 PCA和线性回归的区别 线性回归的误差来自竖直方向,而PCA的误差来自垂直方向 PCA 阅读全文
posted @ 2017-08-23 15:09 郑哲 阅读(343) 评论(0) 推荐(0) 编辑
摘要: 当有两个特征变量为厘米和英尺时,我们可以把两个特征变量降为1个 两个变量的值几乎呈线性关系,相关性很强 于是得到下图的新的变量: 同样可以把3维降到2维: 维数约减同样可以用在高维度。 数据可视化 当我没有大量变量,比如有50个 我们可以用维数减约来降到两维 从而使数据可视化 阅读全文
posted @ 2017-08-23 14:36 郑哲 阅读(615) 评论(0) 推荐(0) 编辑
摘要: 无监督学习 聚类:对数据进行分类 1.K均值算法 先选两个中心 簇分类: 根据离两个点的距离远近,把数据分成两类 移动中心,移动到各类的中心: 不断循环上面的步骤 输入: 1.K-分类的个数。 2.训练集 算法: 如果在循环过程中一个类没有和他最近的点, 1.移除这个类,也就是减少一个类 2.随机产 阅读全文
posted @ 2017-08-22 19:03 郑哲 阅读(383) 评论(0) 推荐(0) 编辑
摘要: 使用SVM优化包(liblinear,libsvm)来求θ 我们要做得: 1.选择适当的C值 2.选择相应的核函数 我们也可以不选择核函数(称为线性核函数) 弊端: 如果你有大量的特征变量 如果 n 很大 而训练集的样本数 m 很小 那么 你知道 你有大量的特征变量 x 是一个 n+1 维向量 x 阅读全文
posted @ 2017-08-22 18:19 郑哲 阅读(278) 评论(0) 推荐(0) 编辑
摘要: 当我们要去判断一个非线性的区域,我们会选择用非线性 函数来拟合。 问题是 能不能选择别的特征变量 或者有没有比这些高阶项更好的特征变量 因为 我们并不知道 这些高阶项是不是我们真正需要的 我们之前谈到 计算机 视觉的时候 提到过这时的输入是一个有很多像素的图像 我们看到如果用高阶项 作为特征变量 运 阅读全文
posted @ 2017-08-22 13:01 郑哲 阅读(916) 评论(0) 推荐(0) 编辑
摘要: 强大的算法 广泛的应用于 工业界和学术界 它被称为支持向量机(Support Vector Machine) 与逻辑回归和神经网络相比 支持向量机 或者简称SVM 在学习复杂的非线性方程时 、 提供了一种更为清晰 更加强大的方式 Logistic回归的替代观点 J(θ)=-(yloghθ(x)+(1 阅读全文
posted @ 2017-08-22 12:13 郑哲 阅读(254) 评论(0) 推荐(0) 编辑
摘要: 癌症分类例子: 训练逻辑回归模型hθ(x).(如果有癌症则为1,没有为0) 我们在测试集中得到1%的错误率,看起来不错 但是 假如我们发现 在测试集中 只有0.5%的患者 真正得了癌症 因此 在我们的筛选程序里 只有0.5%的患者患了癌症 只有0.5%的错误率,显然只考虑误差率不合适 因为你可能会获 阅读全文
posted @ 2017-08-22 09:58 郑哲 阅读(566) 评论(0) 推荐(0) 编辑
摘要: 优先考虑什么工作 系统设计实例: 给定一个数据集的电子邮件,我们可以构建一个向量的每一封电子邮件。在这个向量的每个条目代表一个字。该向量通常包含10000到50000个条目,这些集合是通过查找数据集中最常用的词来收集的。如果在电子邮件中找到一个词,我们将把它的条目指定为1,否则如果找不到,该条目将是 阅读全文
posted @ 2017-08-21 19:18 郑哲 阅读(2409) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 19 下一页