飞鸟各投林

导航

2017年4月1日 #

感悟-思考-生活

摘要: 昨天晚上2点才上床睡觉,本以为自己今天会起不来,然而今天早晨醒来的出奇的早,可能最近想的事情有点多吧,突然想到当年科比双绝杀太阳的时候,唠嗑自己说了一句话:我觉得我一下成熟了10岁,突然感动到想哭,想一想,现在的NBA,哎,大家都想走捷径,都想抱团,这事要是放在詹姆斯身上,估计他会说我又可以抱团10 阅读全文

posted @ 2017-04-01 12:11 飞鸟各投林 阅读(272) 评论(0) 推荐(0) 编辑

[百度校招]打印全排列

摘要: 2014年的题目,给定n个元素,打印出全排列比如输入1 2 3,打印出6种排列情况 阅读全文

posted @ 2017-04-01 01:46 飞鸟各投林 阅读(265) 评论(0) 推荐(0) 编辑

[阿里]逆序打印整数,要求递归实现

摘要: #include void Reverse(int n)//递归逆序输出n { if(n==0) return -1; if(n!=0) printf("%d",n%10); Reverse(n/10); } 阅读全文

posted @ 2017-04-01 01:35 飞鸟各投林 阅读(303) 评论(0) 推荐(0) 编辑

[百度]数组中去掉连续重复的数字,只保留1个

摘要: int only1(int a[],int n) { int i,j,k; for(i = 0; i < n; ++i) { for(j = i + 1; j < n - 1; ++j) { if(a[j] == a[i]) { ... 阅读全文

posted @ 2017-04-01 01:26 飞鸟各投林 阅读(636) 评论(0) 推荐(0) 编辑

百度NLP三面

摘要: 首先,面试官根据项目经验进行提问,主要是自然语言处理相关的问题;然后写代码题,字符串处理和数字运算居多;再者是一些语言基础知识,百度用的linux平台,C++和python居多。下面列出我面试中的一些问题: 总结:基础知识需要有,但是更看重编码能力。如果写代码时表现优秀,可以弥补专业的不足。所以咯, 阅读全文

posted @ 2017-04-01 00:42 飞鸟各投林 阅读(793) 评论(0) 推荐(0) 编辑

百度NLP二面

摘要: 实验室项目:1.实验室方向 2.用两分钟介绍自己的项目,创新点在哪里 个人项目: 1.自己实现的贝叶斯分类器,目的,怎么做的 2.怎么计算各个分类的先验。(因为我使用的训练预料是每个分类10篇,没有分类的先验) 3 每个主题有10篇文档,假设有1W篇文档,如何分到不同的主题中(我答的是计算与每个文档 阅读全文

posted @ 2017-04-01 00:36 飞鸟各投林 阅读(313) 评论(0) 推荐(0) 编辑

百度NLP一面

摘要: C++ : 1.拷贝构造函数和重载=符分别在什么情况下被调用,实现有什么区别 2.虚函数的目的,虚函数和模板类的区别,如何找到虚函数 常规算法: 1. 如何输出一个集合的所有真子集,递归和非递归的方法。 智力题: 1. 有100W个集合,每个集合中的word是同义词,同义词具有传递性, 比如集合1中 阅读全文

posted @ 2017-04-01 00:35 飞鸟各投林 阅读(869) 评论(0) 推荐(0) 编辑

线程同步的几种方式

摘要: 进程中线程同步的四种常用方式: 1、 临界区(CCriticalSection) 当多个线程访问一个独占性共享资源时,可以使用临界区对象。拥有临界区的线程可以访问被保护起来的资源或代码段,其他线程若想访问,则被挂起,直到拥有临界区的线程放弃临界区为止。具体应用方式: 1、 定义临界区对象Ccriti 阅读全文

posted @ 2017-04-01 00:24 飞鸟各投林 阅读(2434) 评论(0) 推荐(0) 编辑

hash 冲突及解决办法。

摘要: hash 冲突及解决办法。 关键字值不同的元素可能会映象到哈希表的同一地址上就会发生哈希冲突。解决办法: 1)开放定址法:当冲突发生时,使用某种探查(亦称探测)技术在散列表中形成一个探查(测)序列。沿此序列逐个单元地查找,直到找到给定 的关键字,或者碰到一个开放的地址(即该地址单元为空)为止(若要插 阅读全文

posted @ 2017-04-01 00:21 飞鸟各投林 阅读(302) 评论(0) 推荐(0) 编辑

海量数据处理面试题

摘要: 密匙一、分而治之/Hash映射 + Hash_map统计 + 堆/快速/归并排序 1、海量日志数据,提取出某日访问百度次数最多的那个IP。 既然是海量数据处理,那么可想而知,给我们的数据那就一定是海量的。针对这个数据的海量,我们如何着手呢?对的,无非就是分而治之/hash映射 + hash统计 + 阅读全文

posted @ 2017-04-01 00:20 飞鸟各投林 阅读(274) 评论(0) 推荐(0) 编辑

机器学习中梯度下降法和牛顿法的比较

摘要: 在机器学习的优化问题中,梯度下降法和牛顿法是常用的两种凸函数求极值的方法,他们都是为了求得目标函数的近似解。在逻辑斯蒂回归模型的参数求解中,一般用改良的梯度下降法,也可以用牛顿法。由于两种方法有些相似,我特地拿来简单地对比一下。下面的内容需要读者之前熟悉两种算法。 梯度下降法 梯度下降法用来求解目标 阅读全文

posted @ 2017-04-01 00:11 飞鸟各投林 阅读(962) 评论(0) 推荐(0) 编辑

one hot coding -机器学习

摘要: 机器学习 数据预处理之独热编码(One-Hot Encoding) 问题由来 在很多机器学习任务中,特征并不总是连续值,而有可能是分类值。 例如,考虑一下的三个特征: ["male", "female"] ["from Europe", "from US", "from Asia"] ["uses 阅读全文

posted @ 2017-04-01 00:09 飞鸟各投林 阅读(261) 评论(0) 推荐(0) 编辑

分类中数据不平衡问题的解决经验

摘要: 问题:研究表明,在某些应用下,1∶35的比例就会使某些分类方法无效,甚至1∶10的比例也会使某些分类方法无效。(1)少数类所包含的信息就会很有限,从而难以确定少数类数据的分布,即在其内部难以发现规律,进而造成少数类的识别率低(2)数据碎片。很多分类算法采用分治法,样本空间的逐渐划分会导致数据碎片问题 阅读全文

posted @ 2017-04-01 00:07 飞鸟各投林 阅读(482) 评论(0) 推荐(0) 编辑

数据归一化和两种常用的归一化方法

摘要: 数据标准化(归一化)处理是数据挖掘的一项基础工作,不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数据指标之间的可比性。原始数据经过数据标准化处理后,各指标处于同一数量级,适合进行综合对比评价。以下是两种常用的归一 阅读全文

posted @ 2017-04-01 00:06 飞鸟各投林 阅读(301) 评论(0) 推荐(0) 编辑