2017年7月5日

HADOOP基本操作命令

摘要: Hadoop基本操作命令 在这篇文章中,我们默认认为Hadoop环境已经由运维人员配置好直接可以使用。假设Hadoop的安装目录HADOOP_HOME为/home/admin/hadoop。启动与关闭启动Hadoop 1. 进入HADOOP_HOME目录。2. 执行sh bin/start-all.sh 关闭Hadoop 1. 进入HADOOP_HO... 阅读全文

posted @ 2017-07-05 17:22 Charlist00 阅读(250) 评论(0) 推荐(0) 编辑

Ganglia环境搭建并监控Hadoop分布式集群

摘要: 简介Ganglia可以监控分布式集群中硬件资源的使用情况,例如CPU,内存,网络等资源。通过Ganglia可以监控Hadoop集群在运行过程中对集群资源的调度,作为简单地运维参考。 环境搭建流程 1、我们先在主机master01上面搭建好Ganglia环境2、在master01主机上解压JDK和Hadoop到安装目录、修改配置文件3、克隆出两台主机slave01,slave02并修改主机名和IP... 阅读全文

posted @ 2017-07-05 17:21 Charlist00 阅读(494) 评论(0) 推荐(0) 编辑

关于分布式系统的数据一致性问题

摘要: 现在先抛出问题,假设有一个主数据中心在北京M,然后有成都A,上海B两个地方数据中心,现在的问题是,假设成都上海各自的数据中心有记录变更,需要先同步到主数据中心,主数据中心更新完成之后,在把最新的数据分发到上海,成都的地方数据中心A,地方数据中心更新数据,保持和主数据中心一致性(数据库结构完全一致)。数据更新的消息是通过一台中心的MQ进行转发。先把问题简单化处理,假设A增加一条记录Message_A... 阅读全文

posted @ 2017-07-05 17:20 Charlist00 阅读(4610) 评论(0) 推荐(0) 编辑

hadoop snapshot 备份恢复 .

摘要: 1、允许创建快照首先,在你想要进行备份的文件夹下面 执行命令,允许该文件夹创建快照hdfs dfsadmin -allowSnapshot 例如:hdfs dfsadmin -allowSnapshot /Workspace/linlin出现此命令证明已经允许创建快照成功==============================================================... 阅读全文

posted @ 2017-07-05 17:18 Charlist00 阅读(638) 评论(0) 推荐(0) 编辑

hadoop主节点(NameNode)备份策略以及恢复方法

摘要: 一、edits和fsimage 首先要提到两个文件edits和fsimage,下面来说说他们是做什么的。集群中的名称节点(NameNode)会把文件系统的变化以追加保存到日志文件edits中。当名称节点(NameNode)启动时,会从镜像文件 fsimage 中读取HDFS的状态,并且把edits文件中记录的操作应用到fsimage,也就是合并到fsimage中去。合并后更新fsimage的HDF... 阅读全文

posted @ 2017-07-05 17:12 Charlist00 阅读(1331) 评论(0) 推荐(0) 编辑

从 secondarynamenode 中恢复 namenode

摘要: 1.修改 conf/core-site.xml,增加Xml代码fs.checkpoint.period3600The number of seconds between two periodic checkpoints. fs.checkpoint.size67108864The size of the current edit log (in bytes) that triggers a per... 阅读全文

posted @ 2017-07-05 17:11 Charlist00 阅读(341) 评论(0) 推荐(0) 编辑

HDFS snapshot操作实战

摘要: Hadoop从2.1.0版开始提供了HDFS SnapShot的功能。一个snapshot(快照)是一个全部文件系统、或者某个目录在某一时刻的镜像。快照在下面场景下是非常有用:防止用户的错误操作:管理员可以通过以滚动的方式周期性设置一个只读的快照,这样就可以在文件系统上有若干份只读快照。如果用户意外地删除了一个文件,就可以使用包含该文件的最新只读快照来进行回复。备份:管理员可以根据需求来备份整个文... 阅读全文

posted @ 2017-07-05 17:11 Charlist00 阅读(310) 评论(0) 推荐(0) 编辑

Hadoop&Hbase 双机热备--Pacemaker&DRBD部署

摘要: 相关文章 DRBD的介绍请参考http://blog.csdn.net/rzhzhz/article/details/7103772 DRBD的部署请参考http://blog.csdn.net/rzhzhz/article/details/7107115 Pacemaker的介绍请参考http://blog.csdn.net/rzhzhz/article/details/7104135 Pace... 阅读全文

posted @ 2017-07-05 17:10 Charlist00 阅读(468) 评论(0) 推荐(0) 编辑

hadoop 通过distcp进行并行复制

摘要: 通过distcp进行并行复制 前面的HDFS访问模型都集中于单线程的访问。例如通过指定文件通配,我们可以对一部分文件进行处理,但是为了高效,对这些文件的并行处理需要新写一个程序。Hadoop有一个叫distcp(分布式复制)的有用程序,能从Hadoop的文件系统并行复制大量数据。 distcp一般用于在两个HDFS集群中传输数据。如果集群在Hadoop的同一版本上运行,就适合使用hdfs方案: %... 阅读全文

posted @ 2017-07-05 17:10 Charlist00 阅读(8375) 评论(0) 推荐(0) 编辑

Decommission Datanode

摘要: Decommission Datanode就是把Datanode从HDFS集群中移除掉。那问题来了,HDFS在设计时就把诸如机器故障考虑进去了,能否直接把某台运行Datanode的机器关掉然后拔走呢?我认为理论上可行的,不过在实际的集群中,如果某份数据只有一份拷贝而且它就在这个机器上,那么直接关掉并拔走机器就会造成数据丢失。本文将介绍如何Decommission Datanode以及可能会遇到的一... 阅读全文

posted @ 2017-07-05 17:09 Charlist00 阅读(486) 评论(0) 推荐(0) 编辑

分布式集群中节点的动态添加与下架

摘要: 动态添加节点 在实际生产应用中,很多时候因为现有集群的性能问题需要增加服务器节点以提高整体性能(一般是增加从节点,在Hadoop2.x之后解决了主节点的单点问题,可以增加主节点以保持HA高可用性),这就涉及到动态添加节点的问题。还好,Hadoop早就提供了很好的解决方法,我们只需要如下几步就可以轻松地添加一个节点: (1)准备工作:配置新节点的各种环境 主要包括:设置IP地址、主机名、绑定I... 阅读全文

posted @ 2017-07-05 17:01 Charlist00 阅读(841) 评论(0) 推荐(0) 编辑

Hadoop数据收集与入库系统Flume与Sqoop

摘要: Hadoop提供了一个中央化的存储系统,其有利于进行集中式的数据分析与数据共享。 Hadoop对存储格式没有要求。可以存储用户访问日志、产品信息以及网页数据等数据。 常见的两种数据来源。一种是分散的数据源:机器产生的数据、用户访问日志以及用户购买日志。另一种是传统系统中的数据:传统关系型数据库(MySQL、Oracle)、磁盘阵列以及磁带。 Flume由三部分构成。Mas... 阅读全文

posted @ 2017-07-05 16:58 Charlist00 阅读(633) 评论(0) 推荐(0) 编辑

hadoop NameNode HA

摘要: 在 Hadoop 的整个生态系统中,HDFS NameNode 处于核心地位,NameNode 的可用性直接决定了 Hadoop 整个软件体系的可用性。本文尝试从内部实现的角度对 NameNode 的高可用机制进行详细的分析,主要包括 NameNode 的主备切换实现分析和 NameNode 的共享存储实现分析。文章的最后在结合作者自身实践的基础上,列举了一些在高可用运维过程中需要注意的事项。程 ... 阅读全文

posted @ 2017-07-05 16:58 Charlist00 阅读(396) 评论(0) 推荐(0) 编辑

Hadoop学习笔记—20.网站日志分析项目案例

摘要: 1.1 项目来源 本次要实践的数据日志来源于国内某技术学习论坛,该论坛由某培训机构主办,汇聚了众多技术学习者,每天都有人发帖、回帖,如图1所示。图1 项目来源网站-技术学习论坛 本次实践的目的就在于通过对该技术论坛的apache common日志进行分析,计算该论坛的一些关键指标,供运营者进行决策时参考。PS:开发该系统的目的是为了获取一些业务相关的指标,这些指标在第三方工具中无法获得的;1.... 阅读全文

posted @ 2017-07-05 16:57 Charlist00 阅读(440) 评论(0) 推荐(0) 编辑

Hadoop常见重要命令行操作及命令作用

摘要: 关于Hadoop[root@master ~]# hadoop --help Usage: hadoop [--config confdir] COMMANDwhere COMMAND is one of: fs run a generic filesystem user client version print the ver... 阅读全文

posted @ 2017-07-05 16:54 Charlist00 阅读(3106) 评论(0) 推荐(0) 编辑

HDFS之Qurom Journal Manager(QJM)实现机制分析

摘要: 前言1.1背景 自从hadoop2版本开始,社区引入了NameNode高可用方案。NameNode主从节点间需要同步操作日志来达到主从节点元数据一致。最初业界均通过NFS来实现日志同步,大家之所以选择NFS,一方面因为可以很方便地实现数据共享,另外一方面因为NFS已经发展20多年,已经相对稳定成熟。虽然如此,NFS也有缺点不能满足HDFS的在线存储业务:网络单点及其存储节点单点。业界提供了数... 阅读全文

posted @ 2017-07-05 16:48 Charlist00 阅读(1212) 评论(0) 推荐(0) 编辑

hive内部表与外部表区别详细介绍

摘要: 问题导读:1.创建内部表与外部表的区别是什么?2.external关键字的作用是什么?3.外部表与内部表的区别是什么?4.删除表的时候,内部表与外部表有什么区别?5.load data local inpath '/home/wyp/data/wyp.txt' into table wyp;的过程是什么样子的?6.磁盘,hdfs,hive表他们之间的过程是什么样子的?好了,进入正题。今天我们要探讨... 阅读全文

posted @ 2017-07-05 16:44 Charlist00 阅读(3011) 评论(0) 推荐(0) 编辑

从MySQL到Hive,数据迁移就这么简单

摘要: 使用Sqoop能够极大简化MySQL数据迁移至Hive之流程,并降低Hadoop处理分析任务时的难度。先决条件:安装并运行有Sqoop与Hive的Hadoop环境。为了加快处理速度,我们还将使用Cloudera Quickstart VM(要求至少4 GB内存),不过大家也可以使用Hortonworks Data Platform(至少要求8 GB内存)。由于我的笔记本电脑只有8 GB内存,因此我... 阅读全文

posted @ 2017-07-05 16:43 Charlist00 阅读(9163) 评论(0) 推荐(0) 编辑

Hive 安装配置

摘要: Hive 运行模式与 Hadoop 类似,Hive 也有 3 种运行模式:1. 内嵌模式将元数据保存在本地内嵌的 Derby 数据库中,这是使用 Hive 最简单的方式。但是这种方式缺点也比较明显,因为一个内嵌的 Derby 数据库每次只能访问一个数据文件,这也就意味着它不支持多会话连接。2. 本地模式这种模式是将元数据保存在本地独立的数据库中(一般是 MySQL),这用就可以支持多会话和多用户连... 阅读全文

posted @ 2017-07-05 16:42 Charlist00 阅读(278) 评论(0) 推荐(0) 编辑

Hive数据导入/导出

摘要: 1.1 导入/导出规则EXPORT 命令导出数据表或分区,与元数据一起输出到指定位置。又可以从这个输出位置移动到不同的Hadoop 或Hive 实例中,并且使用IMPORT 命令导入。当导出一个分区表时,原始数据可能位于不同的HDFS位置,同时还支持导出/导入分区的子集。导出的元数据存储在目标目录中,数据文件则存储在子目录中。EXPORT 和IMPORT 命令独立于所用的数据源和目标元数据数据管理... 阅读全文

posted @ 2017-07-05 16:39 Charlist00 阅读(381) 评论(0) 推荐(0) 编辑

导航