presto安装和集成kerberos的hive

 


安装

下载安装包

presto官网:https://prestodb.io/

解压presto-server包

tar -zxvf presto-server-0.248.tar.gz

文件目录结构如下

drwxr-xr-x 3 rong rong 4096 Mar 29 10:29 bin drwxrwxr-x 2 rong rong 12288 Mar 29 09:54 lib -rw-r--r-- 1 rong rong 191539 Mar 5 02:48 NOTICE drwxrwxr-x 33 rong rong 4096 Mar 29 09:54 plugin -rw-r--r-- 1 rong rong 126 Mar 5 02:48 README.txt

创建etc目录

mkdir etc

结构如下:

drwxr-xr-x 3 rong rong 4096 Mar 29 10:29 bin drwxrwxr-x 3 rong rong 4096 Mar 29 15:08 etc drwxrwxr-x 2 rong rong 12288 Mar 29 09:54 lib -rw-r--r-- 1 rong rong 191539 Mar 5 02:48 NOTICE drwxrwxr-x 33 rong rong 4096 Mar 29 09:54 plugin -rw-r--r-- 1 rong rong 126 Mar 5 02:48 README.txt

在etc目录创建需要配置文件

1. 创建config.propertie

touch config.properties

内容如下:

# 指定是否运维Presto实例作为一个coordinator(接收来自客户端的查询情切管>理每个查询的执行过程) coordinator=true # 是否允许在coordinator服务中进行调度工作, node-scheduler.include-coordinator=true http-server.http.port=8080 query.max-memory=100MB query.max-memory-per-node=100MB query.max-total-memory-per-node=100MB discovery-server.enabled=true discovery.uri=http://dx-dev-test1028:8080 # 如果节点是worker 则是以下配置 # coordinator=false # http-server.http.port=8080 # query.max-memory=50GB # query.max-memory-per-node=1GB # query.max-total-memory-per-node=2GB # discovery.uri=http://example.net:8080 ~

2. 创建jvm.config

touch jvm.config

内容如下:

-server -Xmx500M -XX:+UseG1GC -XX:G1HeapRegionSize=32M -XX:+UseGCOverheadLimit -XX:+ExplicitGCInvokesConcurrent -XX:+HeapDumpOnOutOfMemoryError -Djava.security.krb5.conf=/etc/krb5.conf

注意:如果集群没有集成kerberos,配置最后一行需要去掉。

3. 创建log.properties

配置日志级别

touch log.properties

内容如下:

com.facebook.presto=INFO

4. 创建node.properties

touch node.properties

内容如下:

# 集群名称, 所有在同一个集群中的Presto节点必须拥有相同的集群名称 node.environment=production # 每个Presto节点的唯一标示。每个节点的node.id都必须是唯一的 node.id=dx-dev-test1028 #该路径要自己创建 随意的目录 node.data-dir=/var/presto/data

在etc目录下创建catlog目录

mkdir catalog

在catalog目录下配置数据源

1. 配置mysql数据源

touch mysql.properties

内容如下:

connector.name=mysql connection-url=jdbc:mysql://dx-dev-test1028:3306 connection-user=root connection-password=root

2. 配置hive数据源(没权限)

touch hive.properties

内容如下:

# name后面为固定写法 connector.name=hive-hadoop2 # 需要启动hive metastore服务 hive.metastore.uri=thrift://dx-dev-test1026:9083 # hadoop集群的配置文件目录 hive.config.resources=${HADOOP_HOME}/etc/hadoop/core-site.xml,${HADOOP_HOME}/etc/hadoop/hdfs-site.xml

客户端配置

将客户端放到 ${PRESTO_HOME}/bin 下:

mv presto-cli-0.248-executable.jar ${PRESTO_HOME}/bin

修改名称为 presto ,并赋予执行权限 chmod +x

mv presto-cli-0.248-executable.jar presto # 赋权执行权限 chmod +x presto

测试

--启动服务 bin/launcher run --启动客户端 ./presto --server hadoop001:8080 --catalog myslq

集成kerberos

生成persto主体的princal

kadmin.local -q "addprinc -randkey presto/admin@RONG360.COM" kadmin.local -q "xst -norandkey -k presto.keytab presto/admin@RONG360.COM"

集成Kerberos环境Hive

1. 修改hive.properties

connector.name=hive-hadoop2 #需要启动hive metastore服务 hive.metastore.uri=thrift://dx-dev-test1026:9083 #配置Presto访问HiveMetastore服务的Kerberos信息,该段配置可以只存在Presto的Coordinator节点 hive.metastore.authentication.type=KERBEROS hive.metastore.service.principal=hive/_HOST@RONG360.COM hive.metastore.client.principal=presto/admin@RONG360.COM hive.metastore.client.keytab=/root/presto.keytab #配置Presto访问HDFS的Kerberos信息,改段配置可以只存在Presto的Worker节点 hive.hdfs.authentication.type=KERBEROS hive.hdfs.impersonation.enabled=true hive.hdfs.presto.principal=presto/admin@RONG360.COM hive.hdfs.presto.keytab=/root/presto.keytab # hadoop集群的配置文件目录 hive.config.resources=/etc/hadoop/conf/core-site.xml,/etc/hadoop/conf/hdfs-site.xml

在hive.properties配置文件中增加访问HiveMetastore和HDFS的Kerberos认证信息,将如上配置同步至Presto集群所有节点的${PRESTO_HOME}/etc/catalog/hive.properties文件中。

注意:在配置hive.metastore.url时,需要使用HiveMetastore服务的HOSTNAME,否则在使用Kerberos访问HiveMetastore时会报找不到Kerberos账号的错误。

2. 修改config.properties

-server -Xmx500M -XX:+UseG1GC -XX:G1HeapRegionSize=32M -XX:+UseGCOverheadLimit -XX:+ExplicitGCInvokesConcurrent -XX:+HeapDumpOnOutOfMemoryError -Djava.security.krb5.conf=/etc/krb5.conf

注意:最后一行

3. 配置HDFS

修改core-site.xml

<property> <name>hadoop.proxyuser.presto.hosts</name> <value>*</value> </property> <property><name>hadoop.proxyuser.presto.groups</name> <value>*</value> </property>

4. 重启HDFS 和 presto

./bin/launcher restart

测试

presto --server http://dx-dev-test1028:8080 --catalog hive --schema default

测试命令1:

show schemas;

内容如下:

Schema -------------------- default information_schema test (3 rows)

测试命令2:

select * from mysql.test.student_mysql a left join hive.test.student_txt b on a.name=b.name;

结果如下:

id | name | name | age ----+--------+--------+----- 1 | lisi | lisi | 15 (1 row)

测试成功!


__EOF__

本文作者彬在俊
本文链接https://www.cnblogs.com/erlou96/p/16878380.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。您的鼓励是博主的最大动力!
posted @   彬在俊  阅读(149)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
点击右上角即可分享
微信分享提示