王家林 第六讲Hadoop图文训练课程:使用HDFS命令行工具操作Hadoop分布式集群初体验

王家林亲授的上海7月6-7日云计算分布式大数据Hadoop深入浅出案例驱动实战

 

 

这一讲主要使用HDFS命令行工具操作Hadoop分布式集群初体验:

 

Step 1:使用HSFS命令向Hadoop分布式集群存放一个大文件;

 

Step 2:删除文件并用两份副本在HDFS上存放数据;

 

使用HDFS命令行工具操作Hadoop分布式集群初体验PDF版本教程请猛击这里

 

王家林的“云计算分布式大数据Hadoop实战高手之路”之完整目录

 

 

王家林把自己几年来在Hadoop上的研究和实践总结出来,并通过动手实践的方式不断深入云就算实战技术,让人人皆可学习,并从中受益。

 

此教程来自于王家林多年的云计算实战研究和实践心得,全部免费教材为云计算分布式大数据Hadoop实战高手之路(共3本书):

 

1,王家林编写的“云计算分布式大数据Hadoop实战高手之路---从零开始”带领您无痛入门Hadoop并能够处理Hadoop工程师的日常编程工作,进入云计算大数据的美好世界。

 

2, 王家林编写的“云计算分布式大数据Hadoop实战高手之路---高手崛起”通过数个案例实战和Hadoop高级主题的动手操作带领您直达Hadoop高手境界。

 

3, 王家林编写的“云计算分布式大数据Hadoop实战高手之路---高手之巅”通过当今主流的Hadoop商业使用方法和最成功的Hadoop大型案例让您直达高手之巅,从此一览众山小。

 

这些教程会按照实践的推移每天逐步发布,大家要多多支持喔!

 

 

 

更多Hadoop交流可以联系家林:

 

新浪微博:http://weibo.com/ilovepains

 

QQ:1740415547

 

Hadoop讨论QQ群:312494188

 

Weixin:wangjialinandroid

 

官方博客:http://www.cnblogs.com/guoshiandroid/

 

现在开始动手做!

Step 1:使用HSFS命令向Hadoop分布式集群存放一个大文件;

我们曾下载过Eclipse这个IDE,如下所示:

此时可以看出这个文件的大小是139.4M,这个大小超过了Hadoop默认文件块的大小64M,因此这个文件讲会被分块存储。

下面我们使用命令行工具,在hadoop.main这台机器上把这个文件存入整个分布式文件系统:

通过上述命令就把Eclipse传递到了hdfs文件系统的根目录下,此时我们通过Web控制台查看一下文件系统:

可以看到文件成功从Ubuntu本地发布到了Hadoop分步式文件系统上!

点击文件我们可以看到该文件分块的信息:

在分块信息下面有具体的分块数据:

可以看到数据被分成了三个块,但是大家同时会注意到这个快在同一台主机上, 按照前面的配置,这些数据应该是分布在 不同的主机节点上的,为何会出现现在的情况呢?其实,这不是一个问题,因为我们的节点比较少,Hadoop是根据自己的算法调整把这个文件存放在了一个节点上。

Step 2:删除文件并用两份副本在HDFS上存放数据;

当我们现在有两个DataNode的情况下,可以把replication配置伪2

进入文件:

修改后:

保存退出:

停止Hadoop集群并重新启动:

接下来把刚刚上传到HDFS的Eclipse删除掉:

此时HDFS中的Eclipse就被删除掉了:

接下来我们再次把文件从本地上传给HDFS:

上传成功,打开Web控制台:

可以看到文件上传成功,此时我们点击该文件:

在这个页面的下面我们看到了数据存放的信息:

可以看出每份数据都有两个副本,分别存放在hadoop.main和hadoop.slave这两天机器上。

 

对HDFS操作的初体验到此结束。

 

 

 

 

 

 

 

 

posted @ 2013-06-15 12:20  王家林的Hadoop之旅  Views(860)  Comments(2Edit  收藏  举报