会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
forever_elf
博客园
首页
新随笔
联系
订阅
管理
2018年11月2日
Hadoop IO
摘要: 检测损坏数据的常用方法是第一次进入系统时计算数据的校验和,然后和传输后新生成的校验和进行匹配.若匹配失败,则认为数据被损坏了.常用CRC-32(cyclic redundancy check,循环冗余检查)计算一个32位的任何大小输入的证书校验和 HDFS会在读取数据时校验和,针对数据的每个io.b
阅读全文
posted @ 2018-11-02 14:50 forever_elf
阅读(127)
评论(0)
推荐(0)
编辑
HDFS
摘要: 块:一个磁盘有它的块的大小,代表着它能够读写的最小数据量.文件系统通过处理大小为一个磁盘快大小的整数倍的数据块来运行这个磁盘.HDFS的块比磁盘的大.目的是为了减少寻址开销,通过让一个块足够大,从磁盘转移数据的时间就能远远大于定位这个块开始端的时间.因此,传送一个由多个块组成的文件的时间就取决于磁盘
阅读全文
posted @ 2018-11-02 10:49 forever_elf
阅读(179)
评论(0)
推荐(0)
编辑
公告