2013年7月20日

emacs安装

摘要: ubuntu12.10 更新源以及安装emacs操作:因为我安装的是12.10(版本查询命令:#cat /etc/issue).并且更新源为北京理工大学的,更新源在系统设置图标-系统-软件源,打开进行选择即可。在终端要使用apt-get updata,以及apt-get upgrade后即可。如果以上都成功了。就可以使用sudo apt-get install emacs,根据提示安装emacs。各种文件编辑器比较也可以参考看下。小结下:vi,vim,emacs,gedit等是文件编辑器。而ant是java项目测试,编译工具,类似与make。这里要说明一下eclipse也可以做文件编辑器以及测 阅读全文

posted @ 2013-07-20 14:12 lyeoswu 阅读(219) 评论(0) 推荐(0) 编辑

2013年7月19日

ant学习笔记3

摘要: 进一步学习一个稍微复杂一点点的ant:参照这里 以上讲的其实很不详细,只是在原有的基础上调用bulid中的run和clean,而要实现以下问题,需要有3个不同的bulid.xml,实现不同的功能才能看出效果来。所以现在是找到三个r具有run和clean的build来。其中前面学习的时候就有了一个默认的run,只要在build.xml中添加clean功能即可。尝试下。ant 中clean书写格式之一:其中bulid,和dist是basedir下的子目录。clean应用例子:AntTest.java为:package com.wlysoft.test;/**this is just a test 阅读全文

posted @ 2013-07-19 20:16 lyeoswu 阅读(213) 评论(0) 推荐(0) 编辑

ant学习笔记2

摘要: ant简明教程,其中包括if,unless,copy,move,delete,mkdir,echo,property,javac,jar,war(使用war命令打包JavaEE项目 )实现命令的介绍。ant的常见数据类型,其中涉及到的有: 其他的数据类型包含在org.apache.tool.ant.types包中而在hadoop的build.xml中还差的命令有如下:,要想知道其中的含义,需查看ant的各种默认命令,或者官网doc。以下是我将要要学习的,如果有读者恰巧看到,以下就越过吧。太复杂了,我还没疏通。 ... 阅读全文

posted @ 2013-07-19 20:06 lyeoswu 阅读(436) 评论(0) 推荐(0) 编辑

2013年7月18日

cvs

摘要: CVS---concurrent versions system(并发版本控制系统)它是一个源代码控制系统,设计用于跟踪许多不同开发人员做出的更改。它非常流行,在开放源代码项目中特别受欢迎。Ant(这个文件是bitch写的,自定义提高的时候写的很不清不楚的,浪费时间的例子,表示投诉,行么,bitch)提供了与CVS的紧密集成。这对于自动化生成环境是非常有用的,因为单个生成文件也可以从源代码知识库中提取出一个或多个模块,生成项目,甚至基于自从前次执行生成以来所作的变更生成批处理文件。今天就在ubuntu12.12中安装了cvs安装命令:#sudo apt-get install cvs即可自动实 阅读全文

posted @ 2013-07-18 16:04 lyeoswu 阅读(123) 评论(0) 推荐(0) 编辑

2013年7月17日

Ant入门笔记

摘要: 对ANT入门的例子在这里可以参考,其中注意事项为:可以在任意地方创建一个文件夹,并命名为ant或者其他。在ant文件夹中创建src子目录,并在src子目录中创建并编写java程序在ant目录下创建build.xml文件。格式如例子所示。在终端进入ant目录,并使用#ant命令进行编译编译成功后,可以在终端看到java程序的结果。以下附带程序:HelloWorld.java源码package com.sharetop.antdemo;//生成com.sharetop.antdemo.HelloWorld.class的路径名。即所需要的包创建格式 public class HelloWorld { 阅读全文

posted @ 2013-07-17 21:55 lyeoswu 阅读(204) 评论(0) 推荐(0) 编辑

2013年7月11日

Hadoop数据容错机制探索资料

摘要: HDFS的基本概念,文件的读取和写入,打开;客户端。HDFS读写相关的类-DataXceiverServer功能描述:DataXceiverServer类是DataNode的辅助类,它最主要是用来实现客 户端或其他数据节点与当前节点通信,并负责接收/发送数据块。这个类的创建是为了监听来自客户端或其他数据节点的请求。 它的实现通信的方法不是用hadoop IPC,而是用jdk本身就有的ServerSocket。HDFS dfsclient读文件过程 源码分析hadoop笔记开发一个PutMerge程序,用于合并本地文件后放入HDFS,因为大文件HDFS处理起来比较容易,所以这个程序经常会在以后的 阅读全文

posted @ 2013-07-11 21:41 lyeoswu 阅读(271) 评论(0) 推荐(0) 编辑

hadoop-wordcount

摘要: package org.apache.hadoop.examples;//压缩包为examples,在hadoop整个项目中添加到一个包import java.io.IOException;import java.util.StringTokenizer;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.Text;import org.apache.hado 阅读全文

posted @ 2013-07-11 17:29 lyeoswu 阅读(236) 评论(0) 推荐(0) 编辑

导航