会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Vegetable Chicken
当你看到这句话的时候,我的访问量又增加了/滑稽
博客园
首页
新随笔
联系
订阅
管理
2019年5月25日
通过JavaAPI使用HBase
摘要: 1.准备工作 (1) 启动zookeeper服务,我的是在本地启动zookeeper (2) 启动HBase和HBase shell 启动HBase: 启动HBase shell (3) 工程的maven依赖 <dependency> <groupId>org.apache.hadoop</grou
阅读全文
posted @ 2019-05-25 14:30 HelloNewCoder
阅读(170)
评论(0)
推荐(0)
2019年5月18日
鸟哥的Linux私房菜-第五章
摘要: 5.1 使用者与群组 (1)文件具有使用者,群组,其他人三个所属关系,当前用户与文件的关系就是这三种所属关系之一,所以查看对应的权限就能够知道当前用户对该文件的权限。 (2)root的相关信息记录在/etc/passwd文件中;个人密码记录在/etc/shadow文件中;组名记录在/etc/grou
阅读全文
posted @ 2019-05-18 21:20 HelloNewCoder
阅读(234)
评论(0)
推荐(0)
2019年5月10日
Flume的简单使用
摘要: 一.flume介绍 1.flume是一个分布式的日志采集系统 2.在flume系统中,最核心的是agent,每个agent都相当于一个数据传递员。 在agent内部有source,sink,channel source是获取数据的来源 sink是采集数据的传送目的,往下一级agent传递或者网存储系
阅读全文
posted @ 2019-05-10 16:35 HelloNewCoder
阅读(357)
评论(0)
推荐(0)
2019年5月9日
Hive命令汇总
摘要: 一.启动1.启动hadoop2.直接在命令行下输入hive就可以换启动hive二.创建1.创建普通表(注意各种分隔符的写法) 2.创建分区表(注意partitioned by (country string,state string)的位置) 3.向hive中加载数据,指定了不存在的分区就相当于创建
阅读全文
posted @ 2019-05-09 19:54 HelloNewCoder
阅读(1076)
评论(0)
推荐(0)
Hive介绍
摘要: 在hadoop上处理结构化数据的数据仓库,采用sql方式操作 hive元数据存储在mysql上,也就是描述hive表的属性信息存放在mysql上;数据存放在hdfs上 不是关系型数据库,不是在线处理,不适合实时查询 hive利用hdfs存储数据,利用mapreduce查询数据 2.hive使用 启动
阅读全文
posted @ 2019-05-09 19:05 HelloNewCoder
阅读(429)
评论(0)
推荐(0)
2019年5月3日
mapreduce(2)--自定义combiner,指定InputFormat,在map端进行join,多个mr编程
摘要: 一.准备工作 1.需求 在wordcount程序中使用自定义combiner 解析mapreduce的流程 2.环境配置 (1)hadoop为本地模式 (2)pom文件代码如下 <dependencies> <dependency> <groupId>org.apache.hadoop</group
阅读全文
posted @ 2019-05-03 14:48 HelloNewCoder
阅读(378)
评论(0)
推荐(0)
2019年5月1日
mapreduce(1)--wordcount的实现
摘要: 1.需求 利用mapreduce编程框架编写wordcount程序。 2.环境配置 (1)hadoop为本地模式 (2)pom文件代码如下 <dependencies> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>had
阅读全文
posted @ 2019-05-01 12:05 HelloNewCoder
阅读(1056)
评论(0)
推荐(0)
2019年4月20日
通过流的方式访问hdfs
摘要: 1.需求 通过流的方式访问hdfs,在mapreduce底层实现中会有直接应用。 2.环境配置 (1)hadoop为本地模式 (2)pom文件代码如下 <dependencies> <dependency> <groupId>org.apache.hadoop</groupId> <artifact
阅读全文
posted @ 2019-04-20 10:24 HelloNewCoder
阅读(540)
评论(0)
推荐(0)
2019年4月18日
hdfs的javaAPI使用
摘要: 参考博客:https://www.cnblogs.com/Eddyer/p/6641778.html 1.需求 使用hdfs的javaAPI访问hdfs系统。 2.环境配置 (1)hadoop为本地模式 (2)pom文件代码如下 <dependencies> <dependency> <groupI
阅读全文
posted @ 2019-04-18 16:14 HelloNewCoder
阅读(1579)
评论(0)
推荐(0)
公告