摘要: 0、论文基本介绍以及相关内容 分析移动用户位置的相似性,提取移动用户的相似路径在出行路径预测、兴趣区域发现、轨迹聚类、个性化路径推荐等领域具有广泛的应用。 重点: 利用移动用户定位数据找到合适轨迹的表示方法,如何高效计算移动用户轨迹间的相似性 成为热点。 衡量相似度的方法有很多:欧式距离,动态时间规 阅读全文
posted @ 2019-04-02 15:00 hugechuanqi 阅读(10647) 评论(0) 推荐(0) 编辑
摘要: [TOC] 1、基本介绍 DTW:Dynamic Time Warping,即动态时间归整。DTW算法基于DP动态规划思想,解决了发音长短不一的模板匹配问题,常用于语音识别(孤立词识别)。 HMM算法在训练阶段需要提供大量的语音数据,通过反复急速那才能得到模型参数;而DTW算法的训练中几乎不需要额外 阅读全文
posted @ 2019-04-01 15:12 hugechuanqi 阅读(2975) 评论(0) 推荐(0) 编辑
摘要: 包括实例属性、类属性,私有成员和公有成员,公有方法、私有方法和静态方法。 类似_xxx和__xxx这样的函数或变量就是非公开的,不应该被直接引用。如下: 类Class中成员变量有两种属性分别是:实例属性和类属性。 实例属性是在构造函数中定义的(__init__),定义时候以self作为前缀。 类属性 阅读全文
posted @ 2019-03-31 11:30 hugechuanqi 阅读(11454) 评论(0) 推荐(0) 编辑
摘要: [TOC] 1、基本知识点简介 在集成学习的Boosting提升算法中,有两大家族:第一是AdaBoost提升学习方法,另一种是GBDT梯度提升树。 传统的AdaBoost算法:利用前一轮迭代弱学习器的误差来更新训练集的权重,一轮轮迭代下去。 梯度提升树GBDT:也是通过迭代的算法,使用前向分布算法 阅读全文
posted @ 2019-03-23 16:55 hugechuanqi 阅读(10459) 评论(0) 推荐(0) 编辑
摘要: [TOC] 1、基本知识点简介 在集成学习的Boosting提升算法中,有两大家族:第一是AdaBoost提升学习方法,另一种是GBDT梯度提升树。 传统的AdaBoost算法:利用前一轮迭代弱学习器的误差来更新训练集的权重,一轮轮迭代下去。 梯度提升树GBDT:也是通过迭代的算法,使用前向分布算法 阅读全文
posted @ 2019-03-23 16:51 hugechuanqi 阅读(472) 评论(0) 推荐(0) 编辑
摘要: [TOC] 1、基本知识点简介 在集成学习的Boosting提升算法中,有两大家族:第一是AdaBoost提升学习方法,另一种是GBDT梯度提升树。 传统的AdaBoost算法:利用前一轮迭代弱学习器的误差来更新训练集的权重,一轮轮迭代下去。 梯度提升树GBDT:也是通过迭代的算法,使用前向分布算法 阅读全文
posted @ 2019-03-23 16:48 hugechuanqi 阅读(377) 评论(0) 推荐(0) 编辑
摘要: [TOC] 1、KNN近邻法 KNN模型由三个基本要素决定: 距离度量 :其中欧式距离一般误差最小,$x_{i} 和 x_{j}$为两个样本点:$$L_{2}(x_{i}, x_{j}) = (\sum\limits_{l=1}^{n} |x_{i}^{(l)} x_{j}^{(l)}|)$$ k值 阅读全文
posted @ 2019-03-23 14:55 hugechuanqi 阅读(240) 评论(0) 推荐(0) 编辑
摘要: [TOC] 1、基本知识点简介 在集成学习的Boosting提升算法中,有两大家族:第一是AdaBoost提升学习方法,另一种是GBDT梯度提升树。 传统的AdaBoost算法:利用前一轮迭代弱学习器的误差来更新训练集的权重,一轮轮迭代下去。 梯度提升树GBDT:也是通过迭代的算法,使用前向分布算法 阅读全文
posted @ 2019-03-22 17:24 hugechuanqi 阅读(671) 评论(0) 推荐(0) 编辑
摘要: [TOC] 二叉树类型为常考题型: 1. 结合队列、栈、链表、字符串等数据结构; 2. 需要掌握图的基本遍历方式,例如BFS和DFS。 3. 需要掌握递归函数的使用,并自己涉及出递归过程。 4. 与实际工作结合紧密。 遍历方式: 1. 前序遍历:根节点 左子树 右子树 2. 中序遍历:左子树 根节点 阅读全文
posted @ 2019-03-19 17:21 hugechuanqi 阅读(257) 评论(0) 推荐(0) 编辑
摘要: [TOC] 1、基本知识点介绍 RandomForest、XGBoost、GBDT和LightGBM都属于集成学习。 集成学习通过构建并结合多个分类器来完成学习任务,也称为多分类系统,集成学习的目的是通过结合多个机器学习分类器的预测结果来改善基本学习器的泛化能力和鲁棒性。 集成学习方法大致分为两类: 阅读全文
posted @ 2019-03-18 19:11 hugechuanqi 阅读(12607) 评论(0) 推荐(0) 编辑