RHive 是一种通过HIVE高性能查询来扩展R计算能力的包。它可以在R环境中非常容易的调用HQL, 也允许在Hive中使用R的对象和函数。理论上数据处理量可以无限扩展的Hive平台,搭配上数据挖掘的利器R环境, 堪称是一个完美的大数据分析挖掘的工作环境。

环境配置

(配置部分是同事搞定的,只记录一些细节)

RHive 依赖于Rserve,因此在安装R的时候有些变化:

  1. ./configure --disable-nls --enable-R-shlib
  2. make
  3. make install

enable-R-shlib 是将R作为动态库进行安装,这样像Rserve依赖于R动态库的包就可以安装了,但缺点是会有20%左右的性能下降

Rserve的安装

正常的安装R包:

  1. install.packages('rJava')
  2. install.packages('Rserve')

在安装Rsever用户下,创建一目录,并创建Rserv.conf文件,写入``remote enable''保存并退出。

通过scp -r 命令将Master节点上安装好的Rserve包,以及Rserv.conf文件拷贝到所有slave节点下,

  1. scp -r /data2/soft/R2.15/library/Rserve slave1:/data2/soft/R2.15/library/
  2. scp -r /data2/soft/R2.15/library/Rserve slave2:/data2/soft/R2.15/library/
  3. scp -r /data2/soft/R2.15/library/Rserve slave3:/data2/soft/R2.15/library/
  4. scp -r /data2/soft/Rserv.conf slave1:/data2/soft/
  5. scp -r /data2/soft/Rserv.conf slave2:/data2/soft/
  6. scp -r /data2/soft/Rserv.conf slave3:/data2/soft/

在所有节点启动Rserve

  1. Rserve--RS-conf /data2/soft/Rserv.conf
  2. telnet slave1 6311

在Master节点telnet所有slave节点,显示 Rsrv0103QAP1 则表示连接成功

RHive的安装

安装包,并在master节点和所有slave节点创建目录,并授读写权限

  1. R CMD INSTALL RHive_0.0-7.tar.gz
  2. cd /data2/soft/
  3. mkdir -p rhive/data

在master节点和所有slave节点的hadoop用户下配置环境变量

  1. vi .bash_profile
  2. export RHIVE_DATA=/data2/soft/R/rhive/data

通过scp -r 命令将Master节点上安装好的RHive包拷贝到所有slave节点下,

  1. scp -r /data2/soft/R2.15/library/RHive slave1:/data2/soft/R2.15/library/
  2. scp -r /data2/soft/R2.15/library/RHive slave2:/data2/soft/R2.15/library/
  3. scp -r /data2/soft/R2.15/library/RHive slave3:/data2/soft/R2.15/library/

查看hdfs文件系统下的jar包是否有读写权限

  1. hadoop fs -ls /rhive/lib

最后,启动hive远程服务: rhive是通过thrift连接hiveserver的,需要要启动后台thrift服务,即:在hive客户端启动hive远程服务

  1. nohup hive --service hiveserver &

完毕。

RHive的使用

rhive-api

从HIVE中获得表信息的函数,比如

  • rhive.list.tables:获得表名列表,支持pattern参数(正则表达式),类似于HIVE的show table
  • rhive.desc.table:表的描述,HIVE中的desc table
  • rhive.exist.table:

RHive 简单应用

载入Rhive包,并连接HIVE,获取数据:

  1. library(RHive)
  2. rhive.connect(host ='host_ip')
  3. d <- rhive.query('select * from emp limit 1000')
  4. class(d)
  5. m <- rhive.block.sample(data_sku, percent =0.0001, seed =0)
  6. rhive.close()

一般在系统中已经配置了host,因此可以直接rhive.connect()进行连接,记得最后要有rhive.close()操作。 通过HIVE查询语句,将HIVE中的目标数据加载至R环境下,返回的 d 是一个dataframe。

实际上,rhive.query的实际用途有很多,一般HIVE操作都可以使用,比如变更scheme等操作:

  1. rhive.query('use scheme1')
  2. rhive.query('show tables')
  3. rhive.query('drop table emp')

但需要注意的是,数据量较大的情况需要使用rhive.big.query,并设置memlimit参数。

将R中的对象通过构建表的方式存储到HIVE中需要使用

  1. rhive.write.table(dat, tablename ='usertable', sep =',')

而后使用join等HIVE语句获得相关建模数据。其实写到这儿,有需求的看官就应该明白了,这几项 RHive 的功能就足够 折腾些有趣的事情了。

  • 注1:其他关于在HIVE中调用R函数,暂时还没有应用,未来更新。
  • 注2:rhive.block.sample这个函数需要在HIVE 0.8版本以上才能执行。

  • 参考:RHive 的 github 项目

posted on 2013-02-18 18:08  风生水起  阅读(8781)  评论(1编辑  收藏  举报