python spark环境配置

 

 
 
 
 
 
在配置Hadoop之前,应该先做以下配置
 
1.更改主机名
首先更改主机名,目的是为了方便管理。 
输入:hostname 
  查看本机的名称 

  使用 hostname 修改当前主机名。

   hostname test1

  然后输入:vim /etc/sysconfig/network

  修改主机名称 

  将HOSTNAME 的名称更改为你想要设置的名称 

 
注:主机名称更改之后,要重启(reboot)才会生效。
输入:vim /etc/hosts
添加 主机IP 和对应的主机名称,做映射。 
 
注:在配置文件中使用主机名的话,这个映射必须做!
 
2.关闭防火墙
    查看状态
        firewall-cmd --state
  关闭防火墙,方便外部访问。 
  CentOS 7版本以下输入: 
  #关闭防火墙
  service   iptables stop
  CentOS 7 以上的版本输入:
  systemctl   stop   firewalld.service
 
3.时间设置
  输入:date
  查看服务器时间是否一致,若不一致则更改 
  更改时间命令
   date -s ‘MMDDhhmmYYYY.ss’
 
 
1.tar -zxvf jdk-8u91......     -C  ~/app
   vi ~/.bash_profile
   加上
   source ~/.bash_profile
   echo $JAVA_HOME  #检查 
 
2.tar -zxvf scala......     -C  ~/app
   vi ~/.bash_profile
   加上
   source ~/.bash_profile
   echo $SCALA_HOME  #检查 
3.tar -zxvf hadoop-2.6.0......     -C  ~/app
   vi ~/.bash_profile
   加上
   source ~/.bash_profile
   echo $HADOOP_HOME #检查 
 
 
   cd /root/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop
   vim hadoop-env.sh
   加上
   
  vim core-site.xml
  将<configurarion></configuration>补充
fs.default.name  这是配置HDFS中节点的URL,在文件系统中,每一个节点都有自己的URL,通过URL才能在整个分布式系统中管理和查询到此节点。集群里面的每一台机器都需要知道NameNode的地址。DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表。
hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,很多路径都依赖它。如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个路径中
 
kvm是主机名,9000是RPC通信端口
 
 
 vim hdfs-site.xml
dfs.replication 它决定着系统里面的文件块的数据备份个数,此数值一般不大于从机的个数。
dfs.name.dir 是设置NameNode的数据存放的本地路径
dfs.data.dir 是设置DataNode的数据存放的本地路径
dfs.http.address是设置NameNode的tracker页面监听地址和端口
 
 
cp mapred-site.xml.template  mapred-site.xml
vi mapred-site.xml
 
 
vi yarn-site.xml
node1为主机名
 
 
cd /root/app/hadoop-2.6.0-cdh5.7.0/bin
./hadoop namenode -format
检查下这里面里有没有多了东西了
 
 
cd /root/app/hadoop-2.6.0-cdh5.7.0/sbin
 ./sbin/start-all.sh       或者./sbin/start-dfs.sh           # ./sbin/stop-all.sh(关闭集群)
(如果在~/.bash_profile加上HADOOP_HOME/sbin,就可以去掉sbin/)
 
如下图说明启动成功
 
 
免密登录
  启动和停止 Hadoop 都会让你输入四次当前服务器的密码。因此我们需要配置免密码登录服务器。
   1.ssh-keygen -t rsa  
     ~/.ssh文件里会生成

  2.cd ~/.ssh

      cat id_rsa.pub>>authorized_keys

        就可以了 ,可以用ssh localhost测试下 

 

4.tar -zxvf  apache-maven-3.3.9-bin.tar.gz   -C  ~/app
  
    vim ~/.bash_profile
    
    source ~./bash_profile
    
    mkdir ~/app/maven_repository
    
    cd /root/app/apache-maven-3.3.9/conf
    vim settings.xml
    这一步是修改 The path to the local repository maven will use to store artifacts
    
    mvn
    就成功了
    
5.安装python3.6.5
    下载pyton3.6.5 source release
    配置python依赖环境
     yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4_devel libpcap-devel xz-devel
    
    tar -zxvf Python-3.6.5.tgz
    cd  Python-3.6.5
    ./configure --prefix=/root/app/python3
    make && make install
    
    配置路径
 
 
6.安装spark
  #下载source code

  #tar -zxvf spark-2.3.0.tgz 

  #cd /home/software/spark-2.3.0/dev

   #./make-distribution.sh --name 2.6.0-cdh5.7.0 --tgz -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.7.0

   解压:
  tar -zxvf spark-2.3.0-bin-hadoop2.6.tgz -C app/
  配置到环境变量: export SPARK_HOME=/root/app/spark-2.3.0-bin-hadoop2.6                                 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
  测试:
  运行一个简单的spark程序
   spark-shell

 

posted @ 2019-05-13 10:10  夏天换上冬装  阅读(2459)  评论(0编辑  收藏  举报