摘要: 1.上传解压 2.进入到storm的conf目录 接上图 启动三台节点的zookeeper集群 启动和查看 Storm 在 nimbus.host 所属的机器上启动 nimbus 服务和 logviewer 服务 storm nimbus & storm logviewer & 在 nimb 阅读全文
posted @ 2018-01-26 23:45 王振龙 阅读(160) 评论(0) 推荐(0) 编辑
摘要: 1.下载安装包 2.解压安装包 3.进入到kafka的config目录修改server.properties文件 进入后显示如下: 修改log.dirs,基本上大部分都是默认配置 kafka依赖zookeeper保存一些meta信息,所以这些需要配置 分发安装包到其他节点上 scp -r .... 阅读全文
posted @ 2018-01-26 22:20 王振龙 阅读(120) 评论(0) 推荐(0) 编辑
摘要: 安装sqoop的前提是已经具备java和hadoop的环境 1.上传并解压 接下来验证启动 Sqoop的数据导入 “导入工具”导入单个表从RDBMS到HDFS。表中的每一行被视为HDFS的记录。所有记录都存储为文本文件的文本数据(或者Avro、sequence文件等二进制数据) 语法 下面的语法用于 阅读全文
posted @ 2018-01-26 21:35 王振龙 阅读(244) 评论(0) 推荐(0) 编辑
摘要: 1、Flume的安装非常简单,只需要解压即可,当然,前提是已有hadoop环境 上传安装包到数据源所在节点上 然后解压 tar -zxvf apache-flume-1.6.0-bin.tar.gz 然后进入flume的目录,修改conf下的flume-env.sh,在里面配置JAVA_HOME 2 阅读全文
posted @ 2018-01-26 20:48 王振龙 阅读(228) 评论(0) 推荐(0) 编辑
摘要: 前提是先安装hadoop和java,启动hive之前要先启动HDFS和yarn 安装hive在一台机器上安装就可以了. 1.解压 tar -zxvf apache-hive-1.2.1-bin.tar.gz 配置环境变量 vi /etc/profile 新建一个hive-site.xml(好像只修改 阅读全文
posted @ 2018-01-26 18:30 王振龙 阅读(151) 评论(0) 推荐(0) 编辑
摘要: linux 文件颜色的含义,蓝色代表目录,绿色代表可执行文件,红色表示压缩文件,浅蓝色表示链接文件,灰色表示其他文件,红色闪烁表示链接的文件有问题了,黄色表示设备文件。蓝色文件 目。录白色文件 一般性文件,如文本文件,配置文件,源码文件等。浅蓝色文件 链接文件,主要是使用ln命令建立的文件。绿色文件 阅读全文
posted @ 2018-01-26 09:56 王振龙 阅读(444) 评论(0) 推荐(0) 编辑
Live2D