摘要: 什么是Apache Hadoop?在Apache Hadoop的项目开发可靠,可扩展,分布式计算开源软件。 Apache Hadoop的软件库是一个框架,允许分布式处理大型数据集在集群计算机使用简单的编程模型。 它被设计为从单一服务器扩展到数千台机器,每个提供本地计算和存储。 而不是依赖于硬件,以提供高可用性,图书馆本身是设计在应用层的故障检测和处理,所以计算机集群上提供高度可用的服务,这可能是容易失败。该项目包括以下模块: Hadoop Common:常用的工具支持其他Hadoop模块。 Hadoop分布式文件系统(HDFS™):一个分布式文件系统,提供了高吞吐量的应用程序数据访问。 Had 阅读全文
posted @ 2013-09-17 11:19 ヨゥヒン3RD 阅读(511) 评论(0) 推荐(0) 编辑