Hadoop-hdfs安装与配置

一、安装要求

  安装JDK
    yum -y install jdk(或手动安装)
  设置namenode节点到datanode节点的免密码登陆
    a. 本地免密码登录
      # ssh localhost #检测能否在本机上实现免密码登陆
      # ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa #创建登陆的公钥和私钥,公钥放在id_dsa.pub中,私钥放在id_dsa中
      # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys #将公钥追加到已认证信息中
      # ssh localhost #实现免密码登陆
    b. 跨主机免密码登陆
      # scp ~/.ssh/id_dsa.pub root@node2:~/.ssh/ #在namenode上执行
      # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys #将公钥追加到已认证信息中,在datanode上执行该操作
    c. 对所有的datanode执行上述操作
  设置域名解析(在所有的节点增加)
    # vi /etc/hosts # 增加节点对应节点,如果不加入节点则在配置文件中需要直接写节点的IP
      192.168.150.128 node1
      192.168.150.129 node2
      192.168.150.130 node3
      192.168.150.131 node4
    

二、安装

  由于hadoop有bin包,所以hadoop下载后只需要解压即可使用。
  版本hadoop-1.2.1
  namenode和datanode上软件包的放置位置要完全相同,否则在集群启动服务的时候会出现找不到文件的情况。
  在软件解压到/root/hadoop-1.2.1文件夹

三、配置  

核心模块的配置
  #vi /root/hadoop-1.2.1/conf/core-site.xml
    <configuration>
     <property>

       <name>fs.default.name</name> # namenode节点名

      <value>hdfs://node1:9000</value> #namenode域名(或IP)和端口

     </property>

     <property>

      <name>hadoop.tmp.dir</name> #文件储存目录

       <value>/opt/hadoop-1.2</value> #fs的放置位置

     </property>

    </configuration>

    其它具体配置可以查看./hadoop-1.2.1/docs的文档。

  #vi /root/hadoop-1.2.1/conf/hdfs-site.xml
    <configuration>

     <name>dfs.replication</name> #block的副本数,不能超过datanode的数目

    <value>2</value>

    </configuration>

  #vi /root/hadoop-1.2.1/conf/slaves #该文件设置datanode节点的域名(IP)

    node2

    node3

  #vi /root/hadoop-1.2.1/conf/masters #该文件设置secondarynamenode节点的域名(IP)

    node2 # 只要跟namenode不在同一台机器上即可
  
  #vi /root/hadoop-1.2.1/conf/hadoop-env.sh #设置运行环境

    export JAVA_HOME=/usr/java/jdk1.7.0_79 # 只要设置jdk的目录即可

  在所有的节点上进行上述的相同配置。

四、测试

  # /root/hadoop-1.2.1/bin/hadoop namenode -format #进行格式化,创建dfs
  # /root/hadoop-1.2.1/bin/start-dfs.sh #启动dfs服务


  # jps #查看启动的java进程(namenode上)
   
  # jps #查看启动的java进程(datanode上)
   
  在浏览器上输入namenode的IP和端口,即可进入文件系统
   http://192.168.150.128:50070
   注意:如果要进入子目录,那么要在windows上hosts文件也设置同样的域名解析,否则浏览器会提示错误,因为没有对应的ip时浏览器会访问外网。
  文件传输和执行java程序
    # /root/hadoop-1.2.1/bin/hadoop -fs -put file input #将file文件传输到文件系统的root用户下的input目录
    # /root/hadoop-1.2.1/bin/hadoop jar hadoop-examples-*.jar grep input output 'dfs[a-z.]+' # 执行jar程序
    
    # /root/hadoop-1.2.1/bin/hadoop fs -get output output 获取并在本地文件系统中显示数据
    # cat output/*
    或 #/root/hadoop-1.2.1/bin/hadoop fs -cat output/*
  关闭进程
    # /root/hadoop-1.2.1/bin/stop-dfs.sh

五、总结  

  虽然说hdfs是文件系统,但本质上并没有格式化本机上的硬盘,所以其实只是硬盘上的一种特殊的文件储存格式,并且必须通过IP:PORT进行访问。实质上在配置并启动了集群之后,集群之间便会进行网络通信,并通过namenode的IP和指定端口(50070)对外提供访问。

  

posted @ 2017-02-27 10:08  zhangjpn  阅读(12243)  评论(0编辑  收藏  举报