会员
商店
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
futurehau
导航
博客园
首页
新随笔
联系
订阅
管理
<
2025年4月
>
日
一
二
三
四
五
六
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
1
2
3
4
5
6
7
8
9
10
统计
随笔 - 75
文章 - 0
评论 - 1
阅读 -
12万
公告
昵称:
futurehau
园龄:
8年7个月
粉丝:
16
关注:
8
+加关注
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
我的标签
数组
(1)
链表
(1)
二分法
(1)
二叉树 分治
(1)
递归 栈
(1)
随笔分类
C++基础知识(1)
Hadoop(8)
Linux(1)
Python与机器学习(7)
机器学习(34)
算法(21)
随笔档案
2020年2月(2)
2018年10月(2)
2017年6月(1)
2017年4月(1)
2017年3月(12)
2017年2月(4)
2017年1月(6)
2016年12月(16)
2016年11月(16)
2016年10月(5)
2016年9月(10)
阅读排行榜
1. 线性回归(24931)
2. 二类分类问题评价指标(20681)
3. Annoy解析(9168)
4. 【项目】搜索广告CTR预估(二)(6062)
5. 【项目】搜索广告CTR预估(一)(5658)
评论排行榜
1. 【项目】搜索广告CTR预估(二)(1)
推荐排行榜
1. 【项目】搜索广告CTR预估(二)(1)
2. 二类分类问题评价指标(1)
3. 机器学习算法推导过程中的数学基础知识(1)
4. 线性回归(1)
5. 链表(1)
最新评论
1. Re:【项目】搜索广告CTR预估(二)
博主目前还在从事计算广告相关工作么?
--树上的waltsmith
2020年2月20日
机器学习基础 brief description
摘要: FM: 解决特征稀疏情形下,特征如何组合的问题。对特征进行组合,在线性模型的基础上,加上特征的二阶交叉项。直接求解会由于二阶交叉没出现过,你就学不了,多每个特征引入辅助向量,分解之后可以使用sgd求解https://www.jianshu.com/p/152ae633fb00 FFM:field-a
阅读全文
posted @ 2020-02-20 21:05 futurehau
阅读(568)
评论(0)
推荐(0)
编辑
2020年2月19日
FM基础
摘要: https://www.jianshu.com/p/152ae633fb00 https://ask.hellobi.com/blog/wenwen/11821
阅读全文
posted @ 2020-02-19 23:06 futurehau
阅读(127)
评论(0)
推荐(0)
编辑
2018年10月14日
神经网络训练优化
摘要: 1.sgd 2.带动的sgd 3.AdaGrad -> RMSProp 4.Adam 5.L-BFGS
阅读全文
posted @ 2018-10-14 18:41 futurehau
阅读(169)
评论(0)
推荐(0)
编辑
Normalization
摘要: 1.Covariate Shift 当训练集的样本分布和测试集的样本分布不一致的时候,训练集训练得到的模型 不好繁华至测试集,这就是Covariate Shift问题。 需要根据目标样本的分支和训练样本的分布 的比例( P(x)/Q(x) ) 对训练样本做一个矫正。参考1 2 2.BN 深度网络中,
阅读全文
posted @ 2018-10-14 00:31 futurehau
阅读(270)
评论(0)
推荐(0)
编辑
2017年6月20日
Tensorflow 学习
摘要: 1.Tensorflow linux环境下安装以及问题处理 http://blog.csdn.net/levy_cui/article/details/51251095 2.Tensorflow基础:构造部分+执行部分 demo import tensorflow as tf # Create a
阅读全文
posted @ 2017-06-20 00:19 futurehau
阅读(244)
评论(0)
推荐(0)
编辑
2017年4月14日
几种常见损失函数
摘要: 损失函数 Loss Function 也可称为代价函数 Cost Function,用于衡量预测值与实际值的偏离程度。我们机器学习的目标就是希望预测值与实际值偏离较小,也就是希望损失函数较小,也就是所谓的最小化损失函数。 几种常见的损失函数如下: 1.0-1损失 :可用于分类问题,该函数用户衡量误分
阅读全文
posted @ 2017-04-14 11:20 futurehau
阅读(4502)
评论(0)
推荐(0)
编辑
2017年3月30日
两人比赛先选后选谁获胜系列的动态规划问题
摘要: 1.分金子(奇虎360 2017春招真题) 题目描述 A、B两伙马贼意外地在一片沙漠中发现了一处金矿,双方都想独占金矿,但各自的实力都不足以吞下对方, 经过谈判后,双方同意用一个公平的方式来处理这片金矿。 处理的规则如下:他们把整个金矿分成n段,由A、B开始轮流从最左端或最右端占据一段,直到分完为止
阅读全文
posted @ 2017-03-30 16:11 futurehau
阅读(508)
评论(0)
推荐(0)
编辑
2017年3月17日
LeetCode 全解(bug free 训练)
摘要: 1.Two Sum 使用hash public int[] twoSum(int[] nums, int target) { int[] res = new int[2]; if (nums == null || nums.length < 2) { return res; } HashMap<In
阅读全文
posted @ 2017-03-17 10:31 futurehau
阅读(630)
评论(0)
推荐(0)
编辑
2017年3月9日
局部敏感哈希LSH
摘要: 之前介绍了Annoy,Annoy是一种高维空间寻找近似最近邻的算法(ANN)的一种,接下来再讨论一种ANN算法,LSH局部敏感哈希。 LSH的基本思想是: 原始空间中相邻的数据点通过映射或投影变换后,在新空间中仍然相邻的概率很大,而不相邻的数据点映射后相邻的概率比较小。 也就是说,我们对原始空间中的
阅读全文
posted @ 2017-03-09 22:19 futurehau
阅读(706)
评论(0)
推荐(0)
编辑
Annoy解析
摘要: Annoy是高维空间求近似最近邻的一个开源库。 Annoy构建一棵二叉树,查询时间为O(logn)。 Annoy通过随机挑选两个点,并使用垂直于这个点的等距离超平面将集合划分为两部分。 如图所示,图中灰色线是连接两个点,超平面是加粗的黑线。按照这个方法在每个子集上迭代进行划分。 依此类推,直到每个集
阅读全文
posted @ 2017-03-09 10:29 futurehau
阅读(9168)
评论(0)
推荐(0)
编辑
下一页
点击右上角即可分享