伪分布式hadoop的配置(ubuntu系统)

sudo chmod -R 777 文件(获取最高权限)


配置Hadoop的环境变量:
sudo gedit /etc/profile
export HADOOP_INSTALL=/usr/local/hadoop #hadoop的安装目录
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export PATH=$PATH:$HADOOP_INSTALL/bin:$HADOOP_INSTALL/sbin(一定注意PATH的路径的书写,不然就开不开机了)
保存后执行以下命令,使配置生效:
source /etc/profile
一.安装SSH和SSH无密登录
安装SSH server
ubuntu一般只是默认安装了 ssh-agent, 可以用如下命令查看:sudo ps -ef | grep ssh

sudo apt-get install openssh-server

SSH无密登录

ssh-keygen -t rsa -P "" (然后输入括号里面的内容)

cat id_rsa.pub >> authorized_keys

ssh localhost

二.安装hadoop
1.复制到安装目录/usr/local/下
sudo cp hadoop-0.20.2.tar.gz /usr/local/
2.解压
sudo tar -zxvf hadoop-0.20.2.tar.gz
3.解压出的文件夹改名为hadoop;
sudo mv hadoop-0.20.2 hadoop  
4.将该hadoop文件夹的属主用户设为hadoop,
sudo chown -R hadoop:hadoop hadoop  
5.进入etc,hadoop中,打开hadoop-env.sh文件;
sudo gedit hadoop-env.sh
把export JAVA_HOME=${JAVA_HOME} 修改为 export JAVA_HOME=/usr/lib/jvm/jdk1.8.0
6.配置文件core-site.xml
把其中的
<configuration>
</configuration>

修改为

<configuration>
     <property>
         <name>hadoop.tmp.dir</name>
         <value>file:/usr/local/hadoop/tmp</value>
         <description>Abase for other temporary directories.</description>
     </property>
     <property>
         <name>fs.defaultFS</name>
         <value>hdfs://localhost:9000</value>
     </property>
</configuration>
7.配置文件hdfs-site.xml
把其中的
<configuration>
</configuration>

修改为
<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

     </property>

     <property>

        <name>dfs.namenode.name.dir</name>

        <value>file:/usr/local/hadoop/tmp/dfs/name</value>

     </property>

     <property>

         <name>dfs.datanode.data.dir</name>

         <value>file:/usr/local/hadoop/tmp/dfs/data</value>

    </property>

</configuration>

三.运行hadoop
1.进入hadoop目录下,格式化hdfs文件系统,初次运行hadoop时一定要有该操作,
cd /usr/local/hadoop/  
bin/hdfs namenode -format
成功后会出现“Exitting with status 0”
2.启动sbin/start-all.sh
进入sbin目录下
./start-dfs.sh (打开)
./stop-dfs.sh(关闭)
3. 检测hadoop是否启动成功
jps

posted on 2018-03-19 14:31  小兔子的乌龟  阅读(197)  评论(0编辑  收藏  举报