Hadoop HDFS 文件块大小

HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来配置,默认大小在Hadoop2.x/3.x版本中是128M,1.x版本中是64M.
建议配置为物理机硬盘每秒的读取速度,如机械硬盘则建议为128M,SSD则配置为256M。

  • HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置。
  • 如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间,导致程序在处理这块数据时,会非常慢
  • HDFS块的大小设置主要取决于硬盘传输速率(读的速度)

作者:奇

出处:https://www.cnblogs.com/fanqisoft/p/17892268.html

版权:本作品采用「本文版权归作者和博客园共有,欢迎转载,但必须给出原文链接,并保留此段声明,否则保留追究法律责任的权利。」许可协议进行许可。

posted @   SpringCore  阅读(176)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!
历史上的今天:
2022-12-10 Docker 安装 Kibana
2022-12-10 Docker 安装 Logstash
2022-12-10 在Docker容器中编辑文件
2020-12-10 Debian 配置apt-get源为网络源
2019-12-10 TypeScript TSLint(TypeScript代码检查工具)
2019-12-10 TypeScript tsconfig.json(TypeScript配置)
2019-12-10 TypeScript 模块
more_horiz
keyboard_arrow_up light_mode palette
选择主题
点击右上角即可分享
微信分享提示