随笔分类 -  机器学习

上一页 1 2 3 4 5 6 ··· 9 下一页
摘要:FM的参考资料 https://zhuanlan.zhihu.com/p/50426292 阅读全文
posted @ 2022-06-18 17:11 blcblc 阅读(83) 评论(0) 推荐(0) 编辑
摘要:https://mp.weixin.qq.com/s/aHeIFojDTf7WdaGlime24w 这篇文章还不错 《吴恩达:机器学习的六个核心算法》 阅读全文
posted @ 2022-06-17 17:14 blcblc 阅读(162) 评论(0) 推荐(0) 编辑
摘要:参考这篇文章 https://zhuanlan.zhihu.com/p/27188729?v_p=86 阅读全文
posted @ 2022-06-16 21:38 blcblc 阅读(87) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2022-06-09 01:47 blcblc 阅读(0) 评论(0) 推荐(0) 编辑
摘要:参考这篇文章: https://zhuanlan.zhihu.com/p/70804197 前言 在处理分类问题的神经网络模型中,很多都使用交叉熵 (cross entropy) 做损失函数。这篇文章详细地介绍了交叉熵的由来、为什么使用交叉熵,以及它解决了什么问题,最后介绍了交叉熵损失函数的应用场景 阅读全文
posted @ 2022-04-06 00:12 blcblc 阅读(1158) 评论(0) 推荐(1) 编辑
摘要:今天从这里下载了一些ppt,可以学习看看别人是怎么准备报告的 https://aicon.infoq.cn/2018/beijing/#schedule 《文本表示和生成新进展 AIConf - lilei 2018》 《机器学习在苏宁易购搜索平台中的实践 李春生》 《ffm及deepffm模型在推 阅读全文
posted @ 2022-03-28 21:42 blcblc 阅读(40) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2022-03-21 14:26 blcblc 阅读(0) 评论(0) 推荐(0) 编辑
摘要:我们先使用tf.reduce_sum来计算了每一个样本点的损失,注意这里的参数 reduction_indices=[1],这表明我们是在第1维上运算,这跟numpy或者DataFrame的运算类似,具体1的含义看下图: 缩减哪一维度,就意味着这个维度没有了,被压扁了 阅读全文
posted @ 2022-03-07 21:30 blcblc 阅读(33) 评论(0) 推荐(0) 编辑
摘要:参考这篇文章: https://blog.csdn.net/weixin_38278334/article/details/82971752 fit,transform,fit_transform常用情况分为两大类1. 数据预处理中方法fit(): Method calculates the par 阅读全文
posted @ 2022-03-07 21:16 blcblc 阅读(359) 评论(0) 推荐(0) 编辑
摘要:参考这篇文章: https://mp.weixin.qq.com/s?__biz=MzI1OTYwNDE2Mg==&mid=2247483753&idx=1&sn=acec759cf688e21660b61e791986bfac&chksm=ea772ac4dd00a3d239995c8e6b9e8 阅读全文
posted @ 2022-03-07 12:03 blcblc 阅读(75) 评论(0) 推荐(0) 编辑
摘要:笔者第一次见到消融实验(Ablation experiment)这个概念是在论文《Faster R-CNN》中。消融实验类似于“控制变量法”。假设在某目标检测系统中,使用了A,B,C,取得了不错的效果,但是这个时候你并不知道这不错的效果是由于A,B,C中哪一个起的作用,于是你保留A,B,移除C进行实 阅读全文
posted @ 2022-03-06 21:24 blcblc 阅读(1295) 评论(0) 推荐(0) 编辑
摘要:看这篇文章: https://zhuanlan.zhihu.com/p/213774840 《机器学习面试150题:不只是考SVM xgboost 特征工程(1-50)》 https://zhuanlan.zhihu.com/p/217494137 《机器学习面试150题:不只是考SVM xgboo 阅读全文
posted @ 2022-02-22 22:32 blcblc 阅读(37) 评论(0) 推荐(0) 编辑
摘要:标准流程: 理解问题:理解问题的核心,相关领域的问题、经验、限制、惯例、内外影响等等。 Collect input features Preprocess:Fillna(fill 0,mean,or by model(eg rf)), Outlier Feature engineering: Nor 阅读全文
posted @ 2022-02-21 22:27 blcblc 阅读(46) 评论(0) 推荐(0) 编辑
摘要:这篇文章还讲得比较清楚: https://blog.csdn.net/u011508640/article/details/72815981 《详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解》 MLE:Maximum Likelihood Estimation,极大似然 阅读全文
posted @ 2022-02-21 21:59 blcblc 阅读(189) 评论(0) 推荐(0) 编辑
摘要:这张图比较直观 当学习率设置的过小时,收敛过程将变得十分缓慢。而当学习率设置的过大时,梯度可能会在最小值附近来回震荡,甚至可能无法收敛。 下面来了解一些学习率调整的方法。 2.1 离散下降(discrete staircase) 对于深度学习来说,每 𝑡t 轮学习,学习率减半。对于监督学习来说,初 阅读全文
posted @ 2022-02-14 22:30 blcblc 阅读(364) 评论(0) 推荐(0) 编辑
摘要:第一种Normalization是对于将数据进行预处理时进行的操作,是对于数据集的各个特征分别进行处理,主要包括min-max normalization、Z-score normalization、 log函数转换和atan函数转换等。第二种Normalization对于每个样本缩放到单位范数(每 阅读全文
posted @ 2022-02-13 21:54 blcblc 阅读(357) 评论(0) 推荐(0) 编辑
摘要:有不少资料讲数据集的,太多了就有些信息过剩了,把我自己认为还不错的数据集做一下记录 NLP WikiText:http://metamind.io/research/the-wikitext-long-term-dependency-language-modeling-dataset/ WikiTe 阅读全文
posted @ 2022-02-10 15:52 blcblc 阅读(1350) 评论(0) 推荐(0) 编辑
摘要:今天看到了一篇很好的文章,做个推荐和记录: https://mp.weixin.qq.com/s/VB4eUBsE6fJNGtC_6RnRUA 里面提到了一个很有用的网站: https://oi-wiki.org/ 里面记录了信息学奥赛的题目和准备方式,讲得还比较全面,可以好好准备。 文章的全文记录 阅读全文
posted @ 2022-02-07 16:46 blcblc 阅读(379) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2021-01-20 21:04 blcblc 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2020-11-23 21:22 blcblc 阅读(0) 评论(0) 推荐(0) 编辑

上一页 1 2 3 4 5 6 ··· 9 下一页
点击右上角即可分享
微信分享提示