整个Hadoop框架工作流程
摘要:
HDFS文件存储系统,负责文件的上传与下载,包含NameNode(一个)和DataNode(多个)两个部分,其中,NameNode存储的是源文件,即文件的存放位置,根据这个位置定位到节点;而DataNode才是真正负责存储数据文件的节点; mapreduce计算引擎,启动工作任务对数据进行加工和处理 阅读全文
posted @ 2021-09-17 02:58 理想三旬_z 阅读(305) 评论(0) 推荐(0) 编辑