GFS 阅读笔记

这篇博客是我阅读著名的 GFS 论文(The Google File System)所总结的笔记以及自己一些的思考。这篇论文是一篇非常经典的论文,尤其对于想要了解分布式或者刚刚开始研究分布式的人来说,是一篇非常好的读物,它里面提到了许多分布式方向的基本问题,许多分布式的研究都是围绕这些基本问题的。

分布式系统

在了解谷歌文件系统(Google File System)之前,我们必须要了解一下有关分布式系统的一些概念。

Q1:一致性是什么?

在分布式文件系统中,很重要的一部分就是数据的复制(replica),为了保证分布式文件系统的高可用性,我们常常会把文件在不同的机器上存储多份,一致性的要求就是保证这些不同机器上的复制品(replicas)能够保持一致。

Q2:如果只有一个应用程序,它对文件系统进行了一次写操作,这个应用程序在这次写操作之后的读操作会观测到什么呢?

它会正常观测到它刚刚写入的数据。

Q3:如果另外多个应用程序执行的读操作呢,它们会观测到什么呢?

对于弱一致性的模型来说,这次读操作有可能会读取到已经过期的数据;

对于强一致性的模型来说,读操作读到的始终是上一次写入操作进行完成之后的数据。

强一致性能保证写入操作,但是它会影响性能(强一致性协议复杂)

Q4:理想化的一致性模型是怎样的?

分布式文件系统通过在多个机器上复制文件来保证可用性,在理想化的一致性模型中,在文件系统中所进行的各种操作都要像是在一台机器上进行的操作。实现理想化一致性模型的难点在于处理高并发问题、如何处理分布式集群中的机器崩溃以及达到网络的高效利用,理想化的一致性模型还会出现裂脑问题(split-brain,如果两个存储着相同文件的机器 A,B同时崩溃,其他的机器并不知道是哪一个先崩溃的,所以就不知道该用 A 恢复 B还是用 B 恢复 A)。总之,使用理想化一致性算法会影响性能,并且它的实现非常复杂(例如:Paxos)

GFS 不是采用的理想化一致性模型,但是它解决了机器崩溃恢复的问题以及能够应对高并发操作同时又能相对高效地利用网络。

GFS 是什么?

GFS(Google File System )是一个大规模分布式文件系统,具有容错的特性(机器崩溃后的处理),并且具有较高性能,能够响应众多的客户端。

GFS 设计背景

  • 经常会有机器崩溃(因为机器众多,难免会有机器崩溃)
  • 有些存储的文件比较大
  • append 操作更常见(在文件后追加,而不是 overwrite 覆盖)
  • 主要包括两种读取 (read)操作:一种是大的顺序读取(单个文件读取几百 KB 甚至是几 MB);另一种是小的随机读取(在随机位置读取几 KB)
  • 需要支持并发(例如,多个客户端同时进行 append 操作)

GFS 所需提供操作

create(文件创建)、delete(文件删除)、open(打开文件)、close(关闭文件)、read(读取文件)、write(写入文件)、record append(追加文件)、snapshot(快照)。

GFS 架构

GFS 的架构由一台 master 服务器和许多台文件服务器(chunkserver)构成,并且有若干客户端(client)与之交互。

GFS 特点概述

  • 文件分块(chunks),每块有一个64位标识符(chunk handle),它是在 chunk 被创建时由 master 分配的,每一个 chunk 会有3个备份,分别在不同的机器上。
  • Master 存储所有的 metadata,包括命名空间(namespace)、访问控制信息(access control)、文件与 chunk 的映射关系(mapping)以及 chunk 的存储位置
  • Master 管理 chunk 租约(lease)、chunk 迁移(如果 chunkserver 挂掉)、chunkserver 之间的通信(heartbeat,它也会向 chunkserver传达master 的命令,chunkserver 通过 heartbeat 向 master 报告自己的状态)
  • Client 会和 master 以及 chunkserver 进行交互,client向 master 请求 metadata,然后向 chunkserver 进行读写操作
  • client 与 chunkserver 都不会缓存文件数据,为的是防止数据出现不一致的状况。但是 client 会缓存 metadata 的信息(但是会出现一个问题,如果 metadata 过期怎么办呢?GFS 给出了自己的解决方案,也就是租约 lease)

单一 Master 架构

GFS 为了简化设计,在整个系统中只有一个 master 进行管理。Master 不提供读写操作,它只会告诉 client,它所请求操作的文件在哪个 chunkserver 上,然后 client 会根据 master 提供的信息,与对应的 chunkserver 进行通信。

例如:以 client 要进行读取操作为例

  1. client 将应用程序请求的文件名、大小转化为 chunk index,然后将文件名和 index 发送给 master
  2. master 返回文件的 chunk handle 和所有该文件备份的位置
  3. client 将这两个 master 发送给它的信息缓存起来作为 value,文件名和 chunk index 作为 key
  4. client 向三个备份之一的 chunkserver 发送读请求(选择最近的机器),请求中包含 chunk index 和它要读取的文件的 Byte 范围
  5. 如果 client 缓存的信息没有过期(如何知道是否过期会在后面的文章进行介绍),client 就不用在与 master 进行通信了,以后可以直接与 chunkserver 进行通信

chunk 大小

GFS 中将 chunk 的大小定为 64MB,它比一般的文件系统的块大小要大。

这样做的优点有:

  • 减少 client 与 master 的交互
  • client 可以在一个块上执行更多的操作,通过 TCP 长连接减少网络压力
  • 减小 metadata 的大小

但是这样做也存在缺点:

  • 一个 chunk 可以存更多的小文件了,这样的话如果有一个块存储了许多小文件,client 和它进行操作的几率大大提高,这个 chunk 的压力会很大(然而在实际中,这个问题影响并不大)
  • 在批处理系统中存在很大问题(如果在一个 chunk 上有一个可执行文件,同时有许多 client 都要请求执行这个文件,它的压力会很大。解决方案是把该文件在不同的 chunkserver 上多添加几个备份,更长久的方案是应该允许 client 去读取其他 client 的文件)

metadata

GFS 的 metadata 存储着 3 种类型的信息:

  • 文件名以及 chunk 的名称
  • 文件与 chunk 的映射关系
  • 各个备份(replicas)的位置

Metadata 通常存储于内存中,前两种信息有时会存于磁盘中,它们有时会作为操作记录(operation log)备份的一部分存储于磁盘,备份于远程机器。

把 metadata 存储于内存有许多优点,查看 metadata 信息时很方便,速度快,有利于 chunk 的垃圾回收(garbage collection)、再备份(re-replication)以及 chunk 迁移(为的是负载均衡)。

但是如果如果Metadata都存放于内存的话会不会受限于内存的大小呢?

实际上不会的,因为每一条 metadata 的大小非常小,namespace 信息也很小,并且使用了前缀压缩(prefix compression)进行存储。并且升级内存的花费实际上也很小。

chunk 位置

chunk 的位置信息在 master 中不是一成不变的,master 会通过定期的 heartbeat 进行更新,这样做能够减小开销,这样做就不用 master 与 chunkserver 时刻保持同步通信(包括 chunkserver 的加入、退出、改名、宕机、重启等)。chunkserver 上有一个 final word,它表示了哪个 chunk 在它的磁盘上,哪个 chunk 不在。

操作记录(operation log)

operation log 中包括了 metadata 变更的历史记录

  • 它是 metadata 的持久化记录,备份于磁盘上
  • 它表示了并发操作的时间线
  • 用于 Master 恢复

一致性模型

GFS 采用的一致性模型并不是强一致性模型,这是在考虑了各种问题后权衡的结果。

GFS 是如何保证一致性的?

有关文件命名空间的操作都是原子的(由 namespace lock 保证)

我们先来介绍一下 GFS 保证一致性的前提和一些概念:

  • 如果所有客户端不论从哪一个备份中读取同一个文件,得到的结果都是相同的,那么我们就说这个文件空间是一致的(consistent)
  • defined:如果一个文件区域在经过一系列操作之后依旧是一致的,并且客户端完全知晓对它所做的所有操作,我们就称它为『defined』
  • 一个操作如果没有被其他并发的写操作影响,那么这个被操作的文件区域是 defined 的
  • 成功的并发操作也会导致文件区域 undefined,但是一定是一致的(consistent)(客户端有可能只看到了最终一致的结果,但是它并不知道过程)
  • 失败的并发操作会导致文件区域 undefined,所以一定也是不一致的(inconsistent)
  • GFS 并不需要是因为什么导致的 undefined(不区分是哪种 undefined),它只需要知道这个区域是 undefined 还是 defined 就可以

造成数据改变的操作可能是写入(write)或者追加(record append):

  • write:往应用程序指定的 offset 进行写入
  • record append:往并发操作进行过的 offset 处进行写入,这个 offset 是由 GFS 决定的(至于如何决定的后面会有介绍),这个 offset 会作为 defined 区域的起始位置发送给 client。
  • “regular” append:对应于 record append 的一个概念,普通的 append 操作通常 offset 指的是文件的末尾,但是在分布式的环境中,offset 就没有这么简单了

重要问题

  1. GFS 通过在所有的备份(replicas)上应用顺序相同的操作来保证一个文件区域的 defined(具体细节后面会讨论)
  2. GFS 会使用 chunk version(版本号)来检测 replicas 是否过期,过期的 replicas 既不会被读取也不会被写入
  3. GFS 通过握手(handshakes)来检测已经宕机的 chunkserver
  4. GFS 会通过校验和(checksuming)来检测文件的完整性

系统间的交互

这一部分我们来谈谈系统中各个部分之间的交互(master 和 chunkserver、client 和 master、chunkserver 等),GFS 设计的目标是尽可能地让 master 更少的涉及到各种操作中。

租约(lease)和修改的顺序(mutation order)

Mutation(修改):mutation 指的是改变了 chunk 的内容或者 metadata,每一次 mutation 都应该作用于所有的备份

GFS 使用租约机制(lease)来保障 mutation 的一致性:多个备份中的一个持有 lease,这个备份被称为 primary replica(其余的备份为 secondary replicas),GFS 会把所有的 mutation 都序列化(串行化),让 primary 直行,secondary 也按相同顺序执行,primary 是由 master 选出来的。一个 lease 通常60秒会超时。

现在我们以写操作的数据流程来说明租约机制是如何进行的:

  1. client 向 master 请求持有 lease 的 chunk(primary replica)位置和其他 replicas 的位置(如果没有 chunk 持有 lease,那么 master 会授予其中一个 replica 一个 lease)
  2. master 返回 primary 的信息和其他 replicas 的位置,然后 client 将这些信息缓存起来(只有当 primary 无法通信或者该 primary replica 没有 lease 了,client 才会向 master 再次请求)
  3. client 会将数据发送到所有的 replicas,每个 chunkserver 会把数据存在 LRU 缓存中
  4. 在所有的 replicas 都收到了数据之后,client 会向 primary 发送写请求。primary 会给它所收到的所有 mutation 分配序列号(这些 mutation 有可能不是来自于同一个 client),它会在自己的机器上按序列号进行操作
  5. primary 给 secondaries 发送写请求,secondaries 会按相同的序列执行操作
  6. secondaries 告知 primary 操作执行完毕
  7. primary 向 client 应答,期间的错误也会发送给 client,client 错误处理程序(error handler)会重试失败的 mutation

其他问题:

  • 如果一次写操作要写的数据比较大,可能会跨越多个 chunk,GFS client 会把它分为几次小的操作,GFS 支持的最大的操作大小是 chunk 的1/4的大小
  • 但是如果像上述这么做会出现 undefined 但是 consistent 的区域,这是为什么呢?GFS 的 record append 操作仅能保证数据在一个原子单位中被写了一次,并不能保证对所有的 replicas 操作的位置都是相同的,比如每次写入的 offset 相同,但是 chunk 有可能不一样

数据流

GFS 对其数据流的设计目标如下:

  • 要充分利用网络带宽
  • 避免网络瓶颈和高延迟
  • 减少数据流动延迟

设计方案如下:

  • 数据以链(chain)的形式 在 chunkserver 之间线性流动(每个机器都在用自己的全部带宽与另外一个机器通信,而不是同时让多个机器分享带宽)
  • 每个机器会把数据发送到离自己最近的还没有收到数据的机器(GFS 中可以通过机器 IP 地址进行计算)
  • 通过 TCP 连接将数据传输流水线化(pipelining),pipelining 之所以能够有效果是因为 GFS 的网络是全双工的交换网络

Snapshot 快照

GFS 通过 snapshot 来立即创建一个文件或者目录树的备份,它可以用于备份文件或者创建 checkpoint(用于恢复),同时 GFS 把写时复制技术(copy-on-write)引入到了快照操作中,原理与 Linux 进程中的写时复制基本相同。

当 master 收到 snapshot 操作请求后:

  1. 废除所有的 lease,准备 snapshot(相当于暂停了所有写操作)
  2. master 记录所有操作,并且将记录写入磁盘
  3. master 将源文件和目录树的 metadata 进行复制,这样之前的记录就和当前的内存中所保存的状态对应起来了,新建的 snapshot 和源文件指向的会是同一个 chunk

Master 职责

  • 执行所有有关于 namespace 的操作
  • 管理整个系统的 chunk replicas:
    • 做出 chunk replicas 的放置决定
    • 创建 chunk/replicas
    • 协调各种操作,保证 chunk 被完全复制
    • 负载均衡
    • 回收闲置空间

管理 namespace

在进行快照操作时,lease 会被废除,无法进行写操作,但是 GFS 希望其他 Master 操作不受影响,GFS 采取的方法是使用namespace 锁

GFS 的namespace 是一个查找表(lookup table),并且采用了前缀压缩的方式存储在内存中,它是一个树结构,namespace 树中的每一个节点(文件名或者目录名)都有一个读/写锁。

在 Master 对文件或者目录进行操作之前它首先需要获取一个锁,比如要对 /d1/d2/…/dn/leaf 进行操作,需要获得 /d1, /d1/d2, /d1/d2/…/dn的读锁,需要 /d1/d2/…/dn/leaf 的读锁或者写锁(根据不同的操作,锁也不同)

例如,当/home/user 被快照备份至/save/user 时,如果此时要创建/home/user/foo 会发生什么呢?

快照操作获得了/home, /save 的读锁和/home/user, /save/user 的写锁。创建/home/user/foo需要/home, /home/user的读锁和/home/user/foo 的写锁。因为两个操作在 /home/user的锁上产生了冲突,所以操作会依次执行,在完成 snapshot 操作之后,释放了/home/user 的写锁, /home/user/foo才会被创建。

放置 replicas

如何安置replicas 的目标是:

  • 最大化数据可靠性和可用性
  • 最大化网络带宽的利用

这里的最大化不仅仅是机器间的问题,还要考虑机架间的问题

在以下3种情况下,Master 会进行创建 replicas 的操作:

  • 创建了新的 chunk
  • 需要重新备份
  • 负载均衡

如何选择将 replicas放置到哪台机器上呢?

  1. 优先选择磁盘利用率低的 chunkserver
  2. GFS 会限制每个 chunkserver『最近』创建的次数。换句话说,如果一个 chunkserver 近期创建 replicas 的操作比较频繁,就不会优先选择它(因为创建就意味着以后会进行读取,为了防止突然间大量的读取出现在同一台机器上)
  3. 保证可用性,尽可能跨机架进行创建操作

当可用的备份低于要求时(GFS 要求为3份),master 会对 chunk 进行重新备份,在以下情况有可能需要重新备份:

  • chunkserver 不可用了
  • 备份损坏了
  • 硬盘挂掉了
  • 所要求的最低备份数量提高了

当有多个 chunk 需要备份时,GFS 如何决定先备份哪个呢?策略如下:

  • 优先选择可用备份少的
  • 优先备份最近没有 delete 文件的
  • 优先备份阻塞了 client 操作的

当 master 决定了备份哪个之后,会把当前可用的 chunk 直接克隆到目标位置(遵循replicas 放置规则)

垃圾回收

文件 delete 之后,GFS 并不会立即对空间进行回收,而是等待垃圾回收机制会空间进行释放。

当文件被删除之后,Master 会想其他操作一样,把删除操作记录下来,但是不进行空间的回收,而是将这块空间命名为 hidden(并且包含被删除时的时间戳),Master 会定期进行扫描,把隐藏了一定时间的文件空间进行回收(这个时间是可以进行配置的),在此期间可以对这块空间的文件进行恢复(直接通过重命名回原来的名称就可以)。

除此之外,垃圾回收机制还会扫描孤儿 chunk(所有的文件都没有用到的非空 chunk),然后对这块 chunk 的 metadata 进行清除。具体的做法是,在 master 于 chunkserver 的 heartbeat 信息中会携带关于 chunk 的信息,master 会把 metadata 中不存在的 chunk 发送给 chunkserver,chunkserver 会把它拥有的 chunk 发送给 master。

过期 replica 检测

chunkserver 宕机或者是 mutation 的丢失会导致 replica 的过期,GFS 是如何对 replicas 进行检测,判断它们是否是最新的呢?

GFS 对于每一个 chunk 都会有一个版本号,这个版本号由 master 进行管理,通过版本号可以对过期的 replica 进行甄别。当 master 授予 lease 的时候,会增加版本号并且通知所有未过期的 replicas,master 和 replicas 都会记录下最新的版本号(这些操作需要在客户端进行写入操作之前完成)。如果这时,有一个 replica 不可用了,它的版本号就不会再增加了,在 chunkserver 重启或者重新向 master报告它的版本号时,master 就会知道这个 replica 已经过期了,并且会在垃圾回收时将它进行回收。如果 master 的版本号落后了呢,它会更新自己的版本号。


本文的版权归作者 罗远航 所有,采用 Attribution-NonCommercial 3.0 License。任何人可以进行转载、分享,但不可在未经允许的情况下用于商业用途;转载请注明出处。感谢配合!