会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
JustDoIT
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
9
下一页
2020年4月16日
[NLP]关键词提取——tf-idf,TextRank
摘要: 参考文献: [1]https://blog.csdn.net/qq_38923076/article/details/81630442 [2]https://blog.csdn.net/qq_27782503/article/details/89429045 [3]https://www.cnblo
阅读全文
posted @ 2020-04-16 21:15 justDoIT&
阅读(273)
评论(0)
推荐(0)
编辑
[ML]SVM
摘要: 参考资料: [1]统计学习方法
阅读全文
posted @ 2020-04-16 21:10 justDoIT&
阅读(113)
评论(0)
推荐(0)
编辑
2020年3月28日
[数据挖掘]特征工程
摘要: 本文来自《零基础入门数据挖掘》笔记。 特征工程 常见的特征工程包括: 总结 1、特征工程的主要目的是将数据转换为能更好地表示潜在问题的特征,从而提高机器学习的性能。比如,异常值处理为了去除噪声,填补缺失值可以加入先验知识等。 2、特征构造属于特征工程的一部分,目的是为了增强数据的表达。 3、如果特征
阅读全文
posted @ 2020-03-28 00:47 justDoIT&
阅读(576)
评论(0)
推荐(0)
编辑
2020年3月25日
[ML]提升算法——Adaboost、提升树
摘要: 本文是《统计学习方法》笔记
阅读全文
posted @ 2020-03-25 16:06 justDoIT&
阅读(198)
评论(0)
推荐(0)
编辑
[ML]逻辑斯谛回归算法
摘要: 本文是《统计学习方法》笔记。 逻辑回归的损失函数是交叉熵,使用交叉熵做损失函数是为了让学到的模型分布更贴合训练数据的分布,而为了做到这一点,最好的方法是计算相对熵,为了计算简便,通常我们会计算交叉熵。 具体的内容可以查看博客:https://blog.csdn.net/huwenxing0801/a
阅读全文
posted @ 2020-03-25 16:05 justDoIT&
阅读(187)
评论(0)
推荐(0)
编辑
2020年3月24日
[ML]决策树
摘要:
阅读全文
posted @ 2020-03-24 21:54 justDoIT&
阅读(150)
评论(0)
推荐(0)
编辑
[数据挖掘]数据探索-EDA
摘要:
阅读全文
posted @ 2020-03-24 20:29 justDoIT&
阅读(198)
评论(0)
推荐(0)
编辑
2020年3月23日
[ML]xgboost理解
摘要: Bagging与Boosting的异同: 1、共同点:二者都是由多个分类器构成 2、不同点:bagging的每个分类器都是过拟合的,boosting的每个分类器都是弱分类器,是欠拟合的 参考资料 [1] https://machinelearningmastery.com/gentle-introd
阅读全文
posted @ 2020-03-23 18:07 justDoIT&
阅读(207)
评论(0)
推荐(0)
编辑
2020年3月17日
好用的编辑器-typora
摘要: 推荐一个好用的编辑器-typora,代码、数学公式、流程图等等都可以很方便的进行编辑。 https://blog.csdn.net/liumingzhuo/article/details/102496472
阅读全文
posted @ 2020-03-17 13:54 justDoIT&
阅读(192)
评论(0)
推荐(0)
编辑
2020年3月13日
[设计模式]单件模式
摘要: 1、定义:单件模式确保一个类只有一个实例,并提供一个全局访问点。 2、实现方式: 经典方式: public class Singleton{ private static Singleton uniqueInstance; private Singleton(){} public static Si
阅读全文
posted @ 2020-03-13 22:52 justDoIT&
阅读(125)
评论(0)
推荐(0)
编辑
上一页
1
2
3
4
5
6
7
8
9
下一页
公告