摘要: 一、测试目的主要是测试hadoop集群分布式计算的速率跟数据大小和计算节点数量的关系。二、环境硬件:浪潮NF5220。系统:CentOS 6.1Master节点在母机CentOS上,分配4CPU,13G内存。其余三个slave节点在母机的KVM虚拟机上,系统一样是CentOS6.1。硬件配置:内存1G,4 CPU,每个100G容量大小的硬盘。三、步骤及测试结果首先将原始数据大小为260M的txt文件放入hdfs。并配置了Hive环境做数据查询测试。由于原始数据太小,要做GB以上的文件测试。所以并且分别拷贝10、50、100、200、300、400、500份原始数据做成对应的大数据文件。(即:例 阅读全文
posted @ 2012-08-10 03:35 LifeStudio 阅读(5353) 评论(1) 推荐(0) 编辑