摘要: 百度的一道笔试题目,看到博客园讨论挺热烈的,也写一下玩玩。实现思想:举个简单的例子11233,从高位到低位开始判断是否有重复数,高位有重复数后,首先修改高位的,高位修改后变为12233,因为要求最小的不重复数,这时实际上要求的是12000这个数的最小不重复数了。在举个例子98989899,它的变化系列可是是这样:9898990098990000990000001000000001010000001010100001010101001010101011、给定任意一个正整数,求比这个数大且最小的“不重复数”,“不重复数”的含义是相邻两位不相同,例如1101是重复数,而1201是不重复数。 1 #i 阅读全文
posted @ 2013-10-07 16:36 cstar(小乐) 阅读(581) 评论(0) 推荐(0) 编辑
摘要: 题目大意:一颗二叉树,每个节点都有一个Value, 判断根节点到叶节点的路径求和值是否等于某个数Sum.比如说如下这样一颗二叉树,76是45,21,10这条路径的求和值,77就没有满足条件的路径。 45 21 6510 24 50 70代码依旧用C++来实现,二叉树一般采用递归的方式来解决。 1 #include 2 3 using namespace std; 4 5 typedef struct BTree 6 7 { 8 int value; 9 struct BTree* left;10 struct BTree* right;... 阅读全文
posted @ 2013-10-06 14:13 cstar(小乐) 阅读(478) 评论(0) 推荐(0) 编辑
摘要: 闲来无事,搜集一些有趣的面试题,以及解决方案,有些代码可能会自己写,有些网上有比较完整的方案了,就直接把代码拷贝过来,描述一下解题思路。Given two binary strings, return their sum (also a binary string).For example,a ="11"b ="1"Return"100".这个问题比较简单,跟普通加法其实差不多,需要考虑的是进位,加法的话需要从低位开始往高位加,这样的话,需要先将字符串反转一下,再开始加。下面是网上找来的C++代码: 1 #include 2 #inc 阅读全文
posted @ 2013-10-06 11:09 cstar(小乐) 阅读(189) 评论(0) 推荐(0) 编辑
摘要: Hadoop日志分析系统项目需求: 需要统计一下线上日志中某些信息每天出现的频率,举个简单的例子,统计线上每天的请求总数和异常请求数。线上大概几十台服务器,每台服务器大概每天产生4到5G左右的日志,假设有30台,每台5G的,一天产生的日志总量为150G。处理方案: 方案1:传统的处理方式,写个JAVA日志分析代码,部署到每台服务器进行处理,这种方式部署起来耗时费力,又不好维护。 方案2:采用Hadoop分布式处理,日志分析是Hadoop集群系统的拿手好戏。150G每天的日志也算是比较大的数据量了,搭个简单的Hadoop集群来处理这些日志是再好不过的了。Hadoop集群的搭建: 参见这两篇文章. 阅读全文
posted @ 2013-07-14 09:48 cstar(小乐) 阅读(1650) 评论(0) 推荐(0) 编辑
摘要: 1. mapreduce内存不足 mapred.map.child.java.opts $CHILD_MAP_OPTS mapred.reduce.child.java.opts $CHILD_REDUCE_OPTSinstead of mapred.child.java.opts $CHILD_O... 阅读全文
posted @ 2013-03-19 13:13 cstar(小乐) 阅读(345) 评论(0) 推荐(0) 编辑
摘要: 简单的示范代码如下:package xls.test;import java.io.File;import jxl.Workbook;import jxl.write.Label;import jxl.write.Number;import jxl.write.WritableSheet;import jxl.write.WritableWorkbook;public class XlsExample { public static void main(String[] args) { try { WritableWorkbook book = Workbook.createWorkbo... 阅读全文
posted @ 2013-01-06 15:37 cstar(小乐) 阅读(631) 评论(0) 推荐(0) 编辑
摘要: 1. 关于MapReduce的 1)MapReduce:一个重大的倒退:http://www.cnblogs.com/chinacloud/archive/2010/12/03/1895366.html 2)MapReduce:http://www.cnblogs.com/chinacloud/archive/2010/12/03/1895365.html 3) MapReduce Tutorial:http://hadoop.apache.org/docs/r1.1.1/mapred_tutorial.html 2. 关于HDFS的: 1)HDFS详解:http://www... 阅读全文
posted @ 2013-01-05 14:00 cstar(小乐) 阅读(248) 评论(0) 推荐(0) 编辑
摘要: 在官方网站上可以找到详细的文档:http://hadoop.apache.org/docs/r1.1.1/file_system_shell.html OverviewThe File System (FS) shell includes various shell-like commands that directly interact with the Hadoop Distributed File System (HDFS) as well as other file systems that Hadoop supports, such as Local FS, HFTP FS, S3. 阅读全文
posted @ 2013-01-05 13:45 cstar(小乐) 阅读(256) 评论(0) 推荐(0) 编辑
摘要: 在linux操作系统中,我们可能会有一些需求,去定时删除某个文件夹下的某些文件。为了实现这个需求,我们一般可以采取写一个删除文件的shell脚本,然后放到crontab表中定时执行即可。 但是这个执行方案会有一个问题,我们删除目录的话,一般是采用 rm -rf yourdir这种形式。如果有一天,我们的程序不需要了,我们把上面提到的某个文件都删除了,而我们又没有在crontab表中把这条route job给删除掉。会导致下面的后果: rm -rf yourdir如果找不到yourdir,它会自动跑到你账号下的根目录,然后执行rm -rf 命令,它会将你账号下的所有文件夹,文件全部删除,除... 阅读全文
posted @ 2012-12-28 16:39 cstar(小乐) 阅读(351) 评论(0) 推荐(0) 编辑
摘要: 悲剧啊,发现原来写入数据库的数据有些问题,需要对这批数据进行处理只有写几行代码连接到数据库批量修改了。 需要操作的字段数据:public class GarbageData { private long id; private String comment; public void setID(long id){ this.id = id; } public long getID(){ return this.id; } public void setComment(String comment){ this.comment = comment; } public String ... 阅读全文
posted @ 2012-12-19 17:13 cstar(小乐) 阅读(286) 评论(0) 推荐(0) 编辑