摘要: 使用布局管理器 FlowLayout管理器 面板的默认布局管理器是java.awt包中的FlowLayout类。使用FlowLayout时,像在页面中排列英文单词那样排组件:从左到右排列,当前行没有空间后进入下一行。 1 import java.awt.*; 2 import javax.swing 阅读全文
posted @ 2017-03-02 00:44 独立小桥风满袖 阅读(730) 评论(0) 推荐(0) 编辑
摘要: 如何度量复杂度 最著名的是Tom McCabe方法,通过计算程序中“决策点”的数量来衡量复杂度。下表给出了一种用于计算决策点的方法。 计算子程序中决策点数量的技术 1.从1开始,一直往下通过程序 2.一旦遇到以下关键籽,或者其同类的词,就加1: if、while、repeat、for、and、or 阅读全文
posted @ 2017-02-28 22:45 独立小桥风满袖 阅读(967) 评论(0) 推荐(0) 编辑
摘要: 各位网友,从今天起,本人博客迁移至CSDN。不便之处,敬请谅解~ 阅读全文
posted @ 2017-06-27 22:47 独立小桥风满袖 阅读(132) 评论(0) 推荐(0) 编辑
摘要: 部署了一个 数据库采用Mysql的程序,sqlyog连接非本地的Mysql服务器的数据库,居然无法连接很奇怪,报1130错误,ERROR 1130: Host 192.168.3.100 is not allowed to connect to this MySQL server 猜想是无法给远程连 阅读全文
posted @ 2017-06-17 13:55 独立小桥风满袖 阅读(23681) 评论(0) 推荐(1) 编辑
摘要: 每一个map可能会产生大量的输出,combiner的作用就是在map端对输出先做一次合并,以减少传输到reducer的数据量。 combiner最基本是实现本地key的归并,combiner具有类似本地的reduce功能。 如果不用combiner,那么,所有的结果都是reduce完成,效率会相对低 阅读全文
posted @ 2017-06-11 22:04 独立小桥风满袖 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 1.Partitioner是partitioner的基类,如果需要定制Partitioner也需要继承该类。 2. HashPartitioner是mapreduce的默认partitioner。计算方法是 which reducer=(key.hashCode() & Integer.MAX_VA 阅读全文
posted @ 2017-06-11 16:36 独立小桥风满袖 阅读(236) 评论(0) 推荐(0) 编辑
摘要: 1.新建一个WCMapper继承Mapper public class WCMapper extends Mapper<LongWritable, Text, Text, LongWritable> { public class WCMapper extends Mapper<LongWritabl 阅读全文
posted @ 2017-06-11 15:00 独立小桥风满袖 阅读(268) 评论(0) 推荐(1) 编辑
摘要: 1.在linux下安装eclipse-jee-kepler-SR2-linux-gtk.tar.gz 并在桌面生成快捷方式 2.解压m2.tar.gz /root/ 3.在maven程序/pom.xml添加引用,引用Hadoop,引用JDK <dependency> <groupId>org.apa 阅读全文
posted @ 2017-06-11 14:41 独立小桥风满袖 阅读(185) 评论(0) 推荐(0) 编辑
摘要: 客户端与服务端都要实现同一个接口Bizable,客户端得到服务端实例代码对象的方法。 服务端需要绑定相关的IP地址、端口。 1.在这里,我们使用Hadoop提供的工具类RPC.Builder,下面就是服务端相关代码 public class RPCServer implements Bizable{ 阅读全文
posted @ 2017-06-10 13:59 独立小桥风满袖 阅读(380) 评论(0) 推荐(0) 编辑
摘要: 1.在客户端,我们进行Job相关属性设定后,最后使用job.waitForCompletion(true);提交任务到集群中,并等待集群作业完成 public static void main(String[] args) throws IOException, ClassNotFoundExcep 阅读全文
posted @ 2017-06-10 13:58 独立小桥风满袖 阅读(811) 评论(0) 推荐(0) 编辑
摘要: 之前,我们学习的都是使用hadoop或hdfs的shell命令传送数据,这样使用不方便。 为此,我们可以使用HDFS的相关java接口,给hadoop里的hdfs传送数据 对开发者来说,不用关心内部实现细节。使用Hadoop内部工具类 1 package cn.itcast.hadoop.hdfs; 阅读全文
posted @ 2017-06-04 19:06 独立小桥风满袖 阅读(382) 评论(0) 推荐(0) 编辑
摘要: 总体来说,hadoop的shell命令非常像Linux系统的shell命令,这非常有利于熟悉Linux的开发人员快速熟悉Hadoop 启动hdfs ./start-dfs.sh 查看hdfs根目录文件 hadoop fs -ls hdfs://192.168.8.88:9000/ 也可以通过下面的命 阅读全文
posted @ 2017-06-04 19:03 独立小桥风满袖 阅读(823) 评论(0) 推荐(0) 编辑