【MIT 6.824 】分布式系统 课程笔记(二)Lecture 03 : GFS

Lecture 03 : GFS

一、一致性

1, 弱一致性

可能会读到旧数据

2, 强一致性

读到的数据都是最新的

3, 一致性比较

  • 强一致性对于app的写方便, 但是性能差

  • 弱一致性有良好的性能, 并且容易延伸服务器, 但是出问题难定位

二、系统设计

1, 为什么chunks那么大

  • 为了均摊费用
  • 减小master的保存chunk状态 大小 (chunk handle)

2, master知道文件架构

  • 对于目录, 知道什么文件在里面
  • 对于文件, 知道每个64MB 的chunk 服务器
  • 保存状态在内存里
  • master可以恢复
    • 操作日志写到磁盘
    • 压缩checkpoint
  • shadow master 落后master, 可以被选拔为master

3, client读过程

  • 发送文件名和chunk index给master
  • master恢复包含目标 chunk 的chunkserver set
    • 包括chunk版本号
    • client缓存上面的信息
  • client询问最近的chunk server
    • 检查版本
    • 如果版本检查错误, 重新联系master

4, client写过程

  • 随机client写到已存在的文件

    • client询问master 目标chunk的位置 和 primary(leases 租约)
    • master回复: chunk servers set、chunk 版本、并且指定谁是primary(有60s的租约)
    • client计算副本的网络拓补结构
    • client发送数据到第一个备份,然后由备份发送给其他备份
      • 使用管道网络(pipeline network??)
    • 备份确认数据回执
    • client 通知primary写
      • primary写
      • 通知其他备份写
      • 全部完成通知client
    • 如果有另一个client对同一个chunk进行写,那么c1/c2会有数据冲突,但是所有的备份数据仍然相同
  • client 追加:

    • same deal, but may put parts from C1 and C2 in any order
          consistent, but not defined
          or, if just one client writes, no problem -- both consistent and defined
      

5,record append

Client record append
    client asks master for chunk locations
    client pushes data to replicas, but specifies no offset
    client contacts primary when data is on all chunk servers
      primary assigns sequence number
      primary checks if append fits into chunk
        if not, pad until chunk boundary
      primary picks offset for append
      primary applies change locally
      primary forwards request to replicas
      let's saw R3 fails mid-way through applying the write
      primary detects error, tells client to try again
    client retries after contacting master
      master has perhaps brought up R4 in the meantime (or R3 came back)
      one replica now has a gap in the byte sequence, so can't just append
      pad to next available offset across all replicas
      primary and secondaries apply writes
      primary responds to client after receiving acks from all replicas

三、错误

如果master下线了 shadow master可以提供服务, 但是只能提供读操作(脑裂额综合征,导致不能写)

四、 总结

1, GFS缺陷

  • master容错性差
  • 小文件
  • 客户端能读到旧数据
  • 追加可能会有冗余

五、参考

1. GFS.paper

2. lecture 03

posted @ 2019-11-29 20:49  Howardwang  阅读(423)  评论(0编辑  收藏  举报