R语言读取Hive数据表
2017-05-24 11:08 xplorerthik 阅读(4320) 评论(0) 编辑 收藏 举报R通过RJDBC包连接Hive
目前Hive集群是可以通过跳板机来访问 HiveServer, 将Hive 中的批量数据读入R环境,并进行后续的模型和算法运算。
1. 登录跳板机后需要首先在Linux下进行配置
从root权限切换到bzsys用户,才能够通过验证读取Hive。首先需要配置Hadoop的临时环境变量CLASSPATH路径
su bzsys export CLASSPATH= $CLASSPATH :/etc/hadoop/conf |
2. 下载并安装RJDBC包
Linux下直接运行R的install 函数通常不成功,建议下载预编译的包通过命令行安装,如下载文件 RJDBC_0.2-6.tar.gz (http://www.rforge.net/RJDBC/)
切换到下载包所在的文件夹下,如 /etc/usr/R-patched/packages (替换为自己的目录),在终端运行R的命令行,完成安装。
R CMD INSTALL RJDBC_0.2-6.tar.gz |
3. 进入R环境
library(RJDBC) # 载入RJDBC包 # 设置R连接时类的路径 CLASSPATH,注意一定要引hive/hadoop这三个路径下的所有包才可以通过认证 cp = c(list.files( "/usr/lib/hive/lib" , pattern = "[.]jar" , full.names=TRUE, recursive=TRUE), list.files( "/usr/lib/hadoop" , pattern = "[.]jar" , full.names=TRUE, recursive=TRUE), list.files( "/etc/hadoop/conf" , full.names=TRUE, recursive=TRUE), recursive=TRUE ) # 新建RJDBC的 Driver drv <- JDBC(driverClass = "org.apache.hive.jdbc.HiveDriver" , classPath = cp ) # 建立连接Connection # 常见错误: 注意路径是jdbc:hive2:而不是jdbc:hive:, 因为新版Hive启用了 HiveServer2,替代了之前的HiveServer变量 # "hadoop-jy-backupserver:10000" 为济阳集群的URL和默认端口PORT 10000, "principal=" 为需要的特殊认证Authentication hiveconnection <- dbConnect(drv, "jdbc:hive2://hadoop-jy-backupserver:10000/default;principal=hive/hadoop-jy-backupserver@HADOOP.QIYI.COM" ,user= "*******" , password= "*******" ) # *** 替换为相应用户名和密码 |
4. R操作 Hive数据表范例
library(RJDBC) cp = c(list.files( "/usr/lib/hive/lib" , pattern = "[.]jar" , full.names=TRUE, recursive=TRUE), list.files( "/usr/lib/hadoop" , pattern = "[.]jar" , full.names=TRUE, recursive=TRUE), list.files( "/etc/hadoop/conf" , full.names=TRUE, recursive=TRUE), recursive=TRUE ) drv = JDBC(driverClass = "org.apache.hive.jdbc.HiveDriver" , classPath = cp ) hiveconnection = dbConnect(drv, "jdbc:hive2://hadoop-jy-backupserver:10000/default;principal=hive/hadoop-jy-backupserver@HADOOP.QIYI.COM" ,user= "*******" , password= "*******" ) # *** 替换为相应用户名密码 # 从BAIDU_INDEX 表中查询记录的个数,存入DataFrame count = dbGetQuery(hiveconnection, "SELECT count(*) FROM cpr.baidu_index" ) # 开始执行MapReduce任务 # 非查询Query的语句,如创建表CREATE, dbSendUpdate 函数执行所有非查询Query的语句 sqlCreateTbl = "CREATE TABLE IF NOT EXISTS cpr.person_correlation_graph_temp(rownames STRING,ibao_person_id_x STRING, ibao_person_id_y STRING, cor_index DOUBLE,start_date STRING,end_date STRING)" result=dbSendUpdate(hiveconnection,sqlCreateTbl) # 将数据写入Hive数据库 dfToLoad = data.frame(rownames=c( '1' , '2' ),ibao_person_id_x=c( '盗墓笔记' , '盗墓笔记' ), ibao_person_id_y=c( '李易峰' , '杨洋' ),cor_index=c(0.8900,0.5100)) dbWriteTable(hiveconnection, "cpr.person_correlation_graph" , dfToLoad, overwrite=TRUE) # R中执行其他Hive SQL的函数 dbListTables(hiveconnection, "%qiyu%" ) df = dbReadTable(hiveConn, "iris" ) |