小记------phoenix安装搭建
1.下载与hbase对应版本的phoenix
2.解压
tar -zxvf apache-phoenix-4.14.0-cdh5.14.2-bin.tar.gz
3.复制并分发到每台机器上(phoenix-4.10.0-HBase-1.2-server.jar)Hbase 的lib下
cp phoenix-4.10.0-HBase-1.2-server.jar /opt/cloudera/parcels/CDH-5.14.0-1.cdh5.14.0.p0.24/lib/hbase/lib/ //本机使用cp
scp -r phoenix-4.10.0-HBase-1.2-server.jar elasticsearch@hadoop03:$PWD //分别分发给每台机器
4.重启hbase
5.使用sqlline.py命令行终端
进入bin目录
cd /opt/cdh/phoenix-4.9.0-cdh5.14.0/bin
1).登录sqlline.py shell连接到zk服务器
运行sqlline.py
./sqlline.py df1,df2,df3:2181 //连接多个 需要以','隔开, 也可以在最后‘:2181’添加端口
2)常用命令
!help //查看帮助
!list //列出连接
!tables //显示表
!columns 表名 //列出所有列
创建表
create table ns1.test(id integer primary key ,name varchar , age integer) ;
插入数据
upsert into ns1.test(id,name,age) values(1,'tom',20)
删除数据
delete from ns1.test where id = 1 ;
创建二级索引(需要分发给所有机器)
--------------------------------------------------
1.修改配置(每台机器的hbase-site.xml 都需要修改)
根据不同的phoenix版本进行不同配置
以下配置 仅针对phoenix版本在4.8 及以上版本 配置使用
<property> <name>hbase.regionserver.wal.codec</name> <value>org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec</value> </property> <property> <name>hbase.region.server.rpc.scheduler.factory.class</name> <value>org.apache.hadoop.hbase.ipc.PhoenixRpcSchedulerFactory</value> <description>Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates</description> </property> <property> <name>hbase.rpc.controllerfactory.class</name> <value>org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory</value> <description>Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates</description> </property>
----------------------------------------
2.重启hbase集群
3.进入sqlline.py
创建索引(如果索引带特殊字符,需用“”)
create index "idx_ns1.test_name" on ns1.test(name) ;
删除索引
drop index IDX_NS1_TEST_NAME on ns1.test ;
client 通过jdbc方式访问phoenix
----------------------------------
1.创建模块引入pom.xml
加载依赖phoenix-core
测试:
作者:于二黑
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。