根据之前的操作,我们已经可以正常的启动Hadoop了,关于真正的集群我会在之后进行说明。现在我们来看一下第一个程序吧

1. 在eclipse上建立一个java项目

2. 将 /usr/hadoop/share/hadoop/common/hadoop-common-2.2.0.jar 文件导入到项目中

3. 将 /usr/hadoop/share/hadoop/common/lib/commons-logging-1.1.1.jar 文件导入到项目中

4. 编写代码如下

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class DFSOperator {

    /**
     * @param args
     */
    public static void main(String[] args) {
        Configuration conf = new Configuration();
        try {
            FileSystem fs = FileSystem.get(conf);
            Path f = new Path("hdfs:///dfs_operator.txt");
            FSDataOutputStream s = fs.create(f, true);
            int i = 0;
            for (i = 0; i < 100000; ++i)
                s.writeChars("test");
            s.close();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}

5. 项目抓图

6. 将项目导出成为Jar包 dfsOperator.jar ,可以在如下地址下载

  http://pan.baidu.com/share/link?shareid=3076182544&uk=2517512140

7. 将Jar包传输到Linux系统中,然后使用如下方法执行

  7.1 查看是否存在dfs_operator.txt文件,如果存在需要先删除掉

hadoop fs -ls /

    注明:如果要删除文件可以用如下命令 hadoop fs -rm /dfs_operator.txt

  7.2 运行命令生成dfs_operator.txt文件

hadoop jar dfsOperator.jar DFSOperator

  7.3 运行7.1的命令查看运行效果,如果增加了dfs_operator.txt文件,证明运行成功

 

 

posted on 2013-12-02 16:53  虎头工作室  阅读(452)  评论(0编辑  收藏  举报