10 2016 档案

摘要:LDA: LDA的全称是Linear Discriminant Analysis(线性判别分析),是一种supervised learning。有些资料上也称为是Fisher’s Linear Discriminant。 LDA的原理是,将带上标签的数据(点),通过投影的方法,投影到维度更低的空间中 阅读全文
posted @ 2016-10-30 10:24 合唱团abc 阅读(707) 评论(0) 推荐(0) 编辑
摘要:supervised learning:训练数据集中样本的类别已知 unsupervised learning:事先并不知道任何样本的类别 聚类属于无监督学习,以往的回归、朴素贝叶斯、SVM等都是有类别标签y的,也就是说样例中已经给出了样例的分类。而聚类的样本中却没有给定y,只有特征x。聚类的目的是 阅读全文
posted @ 2016-10-25 16:30 合唱团abc 阅读(395) 评论(0) 推荐(0) 编辑
摘要:转自: http://www.cnblogs.com/jmp0xf/archive/2013/05/14/Bias-Variance_Decomposition.html 阅读全文
posted @ 2016-10-22 15:24 合唱团abc 阅读(271) 评论(0) 推荐(0) 编辑
摘要:一、感知机模型 二、线性回归(Linear Regression) 三、Logistic Regression 四、SVM 五、kmeans https://en.wikipedia.org/wiki/Latent_semantic_analysis 阅读全文
posted @ 2016-10-18 20:03 合唱团abc 阅读(476) 评论(0) 推荐(0) 编辑
摘要:Bag-of-words model (BoW model) 最早出现在NLP和IR(information retrieval)领域. 该模型忽略掉文本的语法和语序, 用一组无序的单词(words)来表达一段文字或一个文档. 近年来, BoW模型被广泛应用于计算机视觉中. 与应用于文本的BoW类比 阅读全文
posted @ 2016-10-17 13:23 合唱团abc 阅读(3744) 评论(1) 推荐(1) 编辑
摘要:C++中对共享数据的存取在并发条件下可能会引起data race的未定义行为,需要限制并发程序以某种特定的顺序执行,有两种方式:1.使用mutex保护共享数据; 2.原子操作 原子操作:针对原子类型操作要不一步完成,要么不做,不可能出现操作一半被切换CPU,这样防止由于多线程指令交叉执行带来的可能错 阅读全文
posted @ 2016-10-13 19:48 合唱团abc 阅读(881) 评论(0) 推荐(0) 编辑
摘要:监督机器学习问题无非就是“minimize your error while regularizing your parameters”,也就是在正则化参数的同时最小化误差。最小化误差是为了让我们的模型拟合我们的训练数据,而正则化参数是防止我们的模型过分拟合我们的训练数据。 因为参数太多,会导致我们 阅读全文
posted @ 2016-10-12 09:33 合唱团abc 阅读(1117) 评论(0) 推荐(0) 编辑
摘要:题目:子线程循环 10 次,接着主线程循环 100 次,接着又回到子线程循环 10 次,接着再回到主线程又循环 100 次,如此循环50次,试写出代码 子线程与主线程必有一个满足条件(flag == num),不满足条件的那个线程不可能获取unique_lock(会在wait中释放),只有满足条件的 阅读全文
posted @ 2016-10-11 18:50 合唱团abc 阅读(35358) 评论(2) 推荐(4) 编辑
摘要:http://www.cnblogs.com/jerrylead/archive/2011/03/18/1988406.html http://blog.pluskid.org/?p=685 考虑我们最初在“线性回归”中提出的问题,特征是房子的面积x,这里的x是实数,结果y是房子的价格。假设我们从样 阅读全文
posted @ 2016-10-11 10:38 合唱团abc 阅读(1317) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示