Processing math: 100%

04 2018 档案

摘要:1、 org.apache.hadoop.hive.metastore.HiveMetaException: Failed to get schema version.Underlying cause: com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxError 阅读全文
posted @ 2018-04-18 22:17 Wind_LPH 阅读(1304) 评论(0) 推荐(0) 编辑
摘要:yum源卸载: yum -y remove java java-1.8.0-openjdk.x86_64 阅读全文
posted @ 2018-04-17 21:59 Wind_LPH 阅读(124) 评论(0) 推荐(0) 编辑
摘要:1、官网下载Hive组件,拷贝至虚拟机, 地址: https://pan.baidu.com/s/1_ijjPTJdKfsA3JbbqYNN3Q 5fwu tar -zxvf apache-hive-2.3.3-bin.tar.gz 解压命令 2、配置环境变量, vi .bash_profile e 阅读全文
posted @ 2018-04-12 01:15 Wind_LPH 阅读(698) 评论(0) 推荐(0) 编辑
摘要:1、下载版本对应的spark和hadoop,如下: 2、配置Spark 解压Spark并配置环境变量, 新建环境变量如下: 在Path中增加如下环境变量: 3、配置hadoop相关变量, 4、下载hadoop组件,并进行配置(winutils ) 下载地址:https://github.com/sr 阅读全文
posted @ 2018-04-11 00:25 Wind_LPH 阅读(763) 评论(0) 推荐(0) 编辑
摘要:Spark安装首先要先安装上Hadoop,然后才可以安装Spark。 Spark官网下载:http://spark.apache.org/downloads.html 需要注意的是:Spark对应的hadoop版本,然后上传至虚拟机 安装步骤: 1、加压文件,tar -zxvf spark-2.3. 阅读全文
posted @ 2018-04-08 23:16 Wind_LPH 阅读(277) 评论(0) 推荐(0) 编辑
摘要:Hadoop安装有三种模式,单机模式、伪分布式和分布式安装 伪分布式安装 1、去hadoop官网下载 .tar.gz 文件,并拷贝到虚拟机中 增加hadoop环境变量, export HADOOP_HOME=/home/wdd/hadoop-2.9.0 export PATH=PATH:HADO 阅读全文
posted @ 2018-04-07 23:52 Wind_LPH 阅读(126) 评论(0) 推荐(0) 编辑
摘要:安装jdk.bin和jdk.tar.gz打的办法 安装jdk.bin 安装好的VM Centos7的虚拟机, 1、查看是否是64位操作系统: cat /proc/cpuinfo | grep flags | grep lm | wc -l 如果结果>0 则是64位操作系统 2、JDK 中 jdk-6 阅读全文
posted @ 2018-04-07 20:29 Wind_LPH 阅读(192) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示