2016年8月30日
摘要: Deep Learning一路走来,大家也慢慢意识到模型本身结构是Deep Learning研究的重中之重,而本文回顾的LeNet、AlexNet、GoogLeNet、VGG、ResNet又是经典中的经典。随着2012年AlexNet的一举成名,CNN成了计算机视觉应用中的不二选择。 阅读全文
posted @ 2016-08-30 13:06 我爱机器学习 阅读(117554) 评论(14) 推荐(8) 编辑
摘要: 大家都清楚神经网络在上个世纪七八十年代是着实火过一回的,尤其是后向传播BP算法出来之后,但90年代后被SVM之类抢了风头,再后来大家更熟悉的是SVM、AdaBoost、随机森林、GBDT、LR、FTRL这些概念。究其原因,主要是神经网络很难解决训练的问题,比如梯度消失。当时的神经网络研究进入一个低潮期,不过Hinton老人家坚持下来了。 阅读全文
posted @ 2016-08-30 13:04 我爱机器学习 阅读(8460) 评论(0) 推荐(1) 编辑
摘要: ICML历年Best Papers 阅读全文
posted @ 2016-08-30 13:03 我爱机器学习 阅读(1510) 评论(0) 推荐(0) 编辑
摘要: CVPR历年Best Papers 阅读全文
posted @ 2016-08-30 13:01 我爱机器学习 阅读(3563) 评论(0) 推荐(1) 编辑
摘要: SIGKDD历年Best Papers 阅读全文
posted @ 2016-08-30 12:58 我爱机器学习 阅读(2614) 评论(0) 推荐(0) 编辑
摘要: 数据不平衡是一个非常经典的问题,数据挖掘、计算广告、NLP等工作经常遇到。该文总结了可能有效的方法,值得参考。 阅读全文
posted @ 2016-08-30 12:52 我爱机器学习 阅读(636) 评论(0) 推荐(0) 编辑
摘要: 总结了27条机器学习相关的Awesome系列,如有遗漏敬请指出。 阅读全文
posted @ 2016-08-30 12:48 我爱机器学习 阅读(1709) 评论(0) 推荐(1) 编辑