CS-Notes/notes/分布式.md

358 lines
18 KiB
Markdown
Raw Normal View History

2018-06-14 20:21:32 +08:00
<!-- GFM-TOC -->
2018-08-07 12:40:02 +08:00
* [一、分布式锁](#一分布式锁)
* [数据库的唯一索引](#数据库的唯一索引)
* [Redis 的 SETNX 指令](#redis-的-setnx-指令)
* [Redis 的 RedLock 算法](#redis-的-redlock-算法)
* [Zookeeper 的有序节点](#zookeeper-的有序节点)
* [二、分布式事务](#二分布式事务)
* [本地消息表](#本地消息表)
* [2PC](#2pc)
* [三、CAP](#三cap)
* [一致性](#一致性)
* [可用性](#可用性)
* [分区容忍性](#分区容忍性)
* [权衡](#权衡)
* [四、BASE](#四base)
* [基本可用](#基本可用)
* [软状态](#软状态)
* [最终一致性](#最终一致性)
* [五、Paxos](#五paxos)
* [执行过程](#执行过程)
* [约束条件](#约束条件)
* [五、Raft](#五raft)
* [单个 Candidate 的竞选](#单个-candidate-的竞选)
* [多个 Candidate 竞选](#多个-candidate-竞选)
* [日志复制](#日志复制)
2018-06-14 20:21:32 +08:00
<!-- GFM-TOC -->
2018-07-28 01:05:53 +08:00
# 一、分布式锁
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
在单机场景下,可以使用 Java 提供的内置锁来实现进程同步。但是在分布式场景下,需要同步的进程可能位于不同的节点上,那么就需要使用分布式锁。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
阻塞锁通常使用互斥量来实现:
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
- 互斥量为 1 表示有其它进程在使用锁,此时处于锁定状态;
- 互斥量为 0 表示未锁定状态。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
1 和 0 可以用一个整型值表示,也可以用某个数据存在或者不存在表示,存在表示互斥量为 1。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
## 数据库的唯一索引
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
当想要获得锁时,就向表中插入一条记录,释放锁时就删除这条记录。唯一索引可以保证该记录只被插入一次,那么就可以用这个记录是否存在来判断是否存于锁定状态。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
存在以下几个问题:
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
- 锁没有失效时间,解锁失败的话其它进程无法再获得锁。
- 只能是非阻塞锁,插入失败直接就报错了,无法重试。
- 不可重入,已经获得锁的进程也必须重新获取锁。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
## Redis 的 SETNX 指令
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
使用 SETNXset if not exist指令插入一个键值对如果 Key 已经存在,那么会返回 False否则插入成功并返回 True。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
SETNX 指令和数据库的唯一索引类似,保证了只存在一个 Key 的键值对,那么可以用一个 Key 的键值对是否存在来判断是否存于锁定状态。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
EXPIRE 指令可以为一个键值对设置一个过期时间,从而避免了数据库唯一索引实现方式中释放锁失败的问题。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
## Redis 的 RedLock 算法
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
使用了多个 Redis 实例来实现分布式锁,这是为了保证在发生单点故障时仍然可用。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
- 尝试从 N 个相互独立 Redis 实例获取锁,如果一个实例不可用,应该尽快尝试下一个;
- 计算获取锁消耗的时间只有当这个时间小于锁的过期时间并且从大多数N / 2 + 1实例上获取了锁那么就认为锁获取成功了
2018-08-06 00:13:34 +08:00
- 如果锁获取失败,就到每个实例上释放锁。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
## Zookeeper 的有序节点
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
### 1. Zookeeper 抽象模型
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
Zookeeper 提供了一种树形结构级的命名空间,/app1/p_1 节点表示它的父节点为 /app1。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//31d99967-1171-448e-8531-bccf5c14cffe.jpg" width="400"/> </div><br>
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
### 2. 节点类型
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
- 永久节点:不会因为会话结束或者超时而消失;
- 临时节点:如果会话结束或者超时就会消失;
- 有序节点:会在节点名的后面加一个数字后缀,并且是有序的,例如生成的有序节点为 /lock/node-0000000000它的下一个有序节点则为 /lock/node-0000000001以此类推。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
### 3. 监听器
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
为一个节点注册监听器,在节点状态发生改变时,会给客户端发送消息。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
### 4. 分布式锁实现
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
- 创建一个锁目录 /lock
- 当一个客户端需要获取锁时,在 /lock 下创建临时的且有序的子节点;
- 客户端获取 /lock 下的子节点列表,判断自己创建的子节点是否为当前子节点列表中序号最小的子节点,如果是则认为获得锁;否则监听自己的前一个子节点,获得子节点的变更通知后重复此步骤直至获得锁;
- 执行业务代码,完成后,删除对应的子节点。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
### 5. 会话超时
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
如果一个已经获得锁的会话超时了因为创建的是临时节点所以该会话对应的临时节点会被删除其它会话就可以获得锁了。可以看到Zookeeper 分布式锁不会出现数据库的唯一索引实现分布式锁的释放锁失败问题。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
### 6. 羊群效应
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
一个节点未获得锁,需要监听自己的前一个子节点,这是因为如果监听所有的子节点,那么任意一个子节点状态改变,其它所有子节点都会收到通知(羊群效应),而我们只希望它的后一个子节点收到通知。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
参考:
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
- [Distributed locks with Redis](https://redis.io/topics/distlock)
- [浅谈分布式锁](http://www.linkedkeeper.com/detail/blog.action?bid=1023)
- [基于 Zookeeper 的分布式锁](http://www.dengshenyu.com/java/%E5%88%86%E5%B8%83%E5%BC%8F%E7%B3%BB%E7%BB%9F/2017/10/23/zookeeper-distributed-lock.html)
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
# 二、分布式事务
指事务的操作位于不同的节点上,需要保证事务的 AICD 特性。例如在下单场景下,库存和订单如果不在同一个节点上,就涉及分布式事务。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
## 本地消息表
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
### 1. 原理
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
本地消息表与业务数据表处于同一个数据库中,这样就能利用本地事务来保证在对这两个表的操作满足事务特性。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
1. 在分布式事务操作的一方完成写业务数据的操作之后向本地消息表发送一个消息,本地事务能保证这个消息一定会被写入本地消息表中。
2. 之后将本地消息表中的消息转发到 Kafka 等消息队列中,如果转发成功则将消息从本地消息表中删除,否则继续重新转发。
3. 在分布式事务操作的另一方从消息队列中读取一个消息,并执行消息中的操作。
<div align="center"> <img src="../pics//e3bf5de4-ab1e-4a9b-896d-4b0ad7e9220a.jpg"/> </div><br>
### 2. 分析
本地消息表利用了本地事务来实现分布式事务,并且使用了消息队列来保证最终一致性。
## 2PC
2018-08-06 00:13:34 +08:00
两阶段提交Two-phase Commit2PC通过引入协调者Coordinator来协调参与者的行为并最终决定这些参与者是否要真正执行事务。
2018-07-28 01:05:53 +08:00
### 1. 运行过程
(一)准备阶段
2018-06-14 20:21:32 +08:00
协调者询问参与者事务是否执行成功,参与者发回事务执行结果。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//04f41228-375d-4b7d-bfef-738c5a7c8f07.jpg"/> </div><br>
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
(二)提交阶段
2018-06-14 20:21:32 +08:00
如果事务在每个参与者上都执行成功,事务协调者发送通知让参与者提交事务;否则,协调者发送通知让参与者回滚事务。
需要注意的是,在准备阶段,参与者执行了事务,但是还未提交。只有在提交阶段接收到协调者发来的通知后,才进行提交或者回滚。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//2991c772-fb1c-4051-a9c7-932b68e76bd7.jpg"/> </div><br>
### 2. 存在的问题
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
(一)同步阻塞
2018-06-14 20:21:32 +08:00
所有事务参与者在等待其它参与者响应的时候都处于同步阻塞状态,无法进行其它操作。
2018-07-28 01:05:53 +08:00
(二)单点问题
2018-06-14 20:21:32 +08:00
2018-08-06 00:13:34 +08:00
协调者在 2PC 中起到非常大的作用,发生故障将会造成很大影响。特别是在阶段二发生故障,所有参与者会一直等待状态,无法完成其它操作。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
(三)数据不一致
2018-06-14 20:21:32 +08:00
在阶段二,如果协调者只发送了部分 Commit 消息,此时网络发生异常,那么只有部分参与者接收到 Commit 消息,也就是说只有部分参与者提交了事务,使得系统数据不一致。
2018-07-28 01:05:53 +08:00
(四)太过保守
2018-06-14 20:21:32 +08:00
任意一个节点失败就会导致整个事务失败,没有完善的容错机制。
2018-07-28 01:05:53 +08:00
参考:
- [聊聊分布式事务,再说说解决方案](https://www.cnblogs.com/savorboard/p/distributed-system-transaction-consistency.html)
- [分布式系统的事务处理](https://coolshell.cn/articles/10910.html)
- [深入理解分布式事务](https://juejin.im/entry/577c6f220a2b5800573492be)
# 三、CAP
分布式系统不可能同时满足一致性CConsistency、可用性AAvailability和分区容忍性PPartition Tolerance最多只能同时满足其中两项。
<div align="center"> <img src="../pics//f1109d04-3c67-48a3-9963-2c475f94e175.jpg"/> </div><br>
## 一致性
一致性指的是多个数据副本是否能保持一致的特性。
在一致性的条件下,系统在执行数据更新操作之后能够从一致性状态转移到另一个一致性状态。
对系统的一个数据更新成功之后,如果所有用户都能够读取到最新的值,该系统就被认为具有强一致性。
## 可用性
可用性指分布式系统在面对各种异常时可以提供正常服务的能力可以用系统可用时间占总时间的比值来衡量4 个 9 的可用性表示系统 99.99% 的时间是可用的。
在可用性条件下,系统提供的服务一直处于可用的状态,对于用户的每一个操作请求总是能够在有限的时间内返回结果。
## 分区容忍性
网络分区指分布式系统中的节点被划分为多个区域,每个区域内部可以通信,但是区域之间无法通信。
在分区容忍性条件下,分布式系统在遇到任何网络分区故障的时候,仍然需要能对外提供一致性和可用性的服务,除非是整个网络环境都发生了故障。
## 权衡
在分布式系统中分区容忍性必不可少因为需要总是假设网络是不可靠的。因此CAP 理论实际在是要在可用性和一致性之间做权衡。
可用性和一致性往往是冲突的,很难都使它们同时满足。在多个节点之间进行数据同步时,
* 为了保证一致性CP就需要让所有节点下线成为不可用的状态等待同步完成
* 为了保证可用性AP在同步过程中允许读取所有节点的数据但是数据可能不一致。
<div align="center"> <img src="../pics//0b587744-c0a8-46f2-8d72-e8f070d67b4b.jpg"/> </div><br>
参考:
- 倪超. 从 Paxos 到 ZooKeeper : 分布式一致性原理与实践 [M]. 电子工业出版社, 2015.
- [What is CAP theorem in distributed database system?](http://www.colooshiki.com/index.php/2017/04/20/what-is-cap-theorem-in-distributed-database-system/)
# 四、BASE
BASE 是基本可用Basically Available、软状态Soft State和最终一致性Eventually Consistent三个短语的缩写。
2018-08-06 00:13:34 +08:00
BASE 理论是对 CAP 中一致性和可用性权衡的结果,它的核心思想是:即使无法做到强一致性,但每个应用都可以根据自身业务特点,采用适当的方式来使系统达到最终一致性。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//bc603930-d74d-4499-a3e7-2d740fc07f33.png"/> </div><br>
## 基本可用
指分布式系统在出现故障的时候,保证核心可用,允许损失部分可用性。
例如,电商在做促销时,为了保证购物系统的稳定性,部分消费者可能会被引导到一个降级的页面。
## 软状态
指允许系统中的数据存在中间状态,并认为该中间状态不会影响系统整体可用性,即允许系统不同节点的数据副本之间进行同步的过程存在延时。
## 最终一致性
最终一致性强调的是系统中所有的数据副本,在经过一段时间的同步后,最终能达到一致的状态。
ACID 要求强一致性,通常运用在传统的数据库系统上。而 BASE 要求最终一致性,通过牺牲强一致性来达到可用性,通常运用在大型分布式系统中。
在实际的分布式场景中,不同业务单元和组件对一致性的要求是不同的,因此 ACID 和 BASE 往往会结合在一起使用。
# 五、Paxos
2018-06-14 20:21:32 +08:00
用于达成共识性问题,即对多个节点产生的值,该算法能保证只选出唯一一个值。
主要有三类节点:
- 提议者Proposer提议一个值
- 接受者Acceptor对每个提议进行投票
- 告知者Learner被告知投票的结果不参与投票过程。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//b988877c-0f0a-4593-916d-de2081320628.jpg"/> </div><br>
2018-06-14 20:21:32 +08:00
## 执行过程
规定一个提议包含两个字段:[n, v],其中 n 为序号具有唯一性v 为提议值。
下图演示了两个 Proposer 和三个 Acceptor 的系统中运行该算法的初始过程,每个 Proposer 都会向所有 Acceptor 发送提议请求。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//1a9977e4-2f5c-49a6-aec9-f3027c9f46a7.png"/> </div><br>
2018-06-14 20:21:32 +08:00
当 Acceptor 接收到一个提议请求,包含的提议为 [n1, v1],并且之前还未接收过提议请求,那么发送一个提议响应,设置当前接收到的提议为 [n1, v1],并且保证以后不会再接受序号小于 n1 的提议。
如下图Acceptor X 在收到 [n=2, v=8] 的提议请求时,由于之前没有接收过提议,因此就发送一个 [no previous] 的提议响应,设置当前接收到的提议为 [n=2, v=8],并且保证以后不会再接受序号小于 2 的提议。其它的 Acceptor 类似。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//fb44307f-8e98-4ff7-a918-31dacfa564b4.jpg"/> </div><br>
2018-06-14 20:21:32 +08:00
如果 Acceptor 接收到一个提议请求,包含的提议为 [n2, v2],并且之前已经接收过提议 [n1, v1]。如果 n1 > n2那么就丢弃该提议请求否则发送提议响应该提议响应包含之前已经接收过的提议 [n1, v1],设置当前接收到的提议为 [n2, v2],并且保证以后不会再接受序号小于 n2 的提议。
如下图Acceptor Z 收到 Proposer A 发来的 [n=2, v=8] 的提议请求,由于之前已经接收过 [n=4, v=5] 的提议,并且 n > 2因此就抛弃该提议请求Acceptor X 收到 Proposer B 发来的 [n=4, v=5] 的提议请求,因为之前接收到的提议为 [n=2, v=8],并且 2 <= 4因此就发送 [n=2, v=8] 的提议响应,设置当前接收到的提议为 [n=4, v=5],并且保证以后不会再接受序号小于 4 的提议。Acceptor Y 类似。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//2bcc58ad-bf7f-485c-89b5-e7cafc211ce2.jpg"/> </div><br>
2018-06-14 20:21:32 +08:00
当一个 Proposer 接收到超过一半 Acceptor 的提议响应时,就可以发送接受请求。
Proposer A 接收到两个提议响应之后,就发送 [n=2, v=8] 接受请求。该接受请求会被所有 Acceptor 丢弃,因为此时所有 Acceptor 都保证不接受序号小于 4 的提议。
Proposer B 过后也收到了两个提议响应,因此也开始发送接受请求。需要注意的是,接受请求的 v 需要取它收到的最大 v 值,也就是 8。因此它发送 [n=4, v=8] 的接受请求。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//9b838aee-0996-44a5-9b0f-3d1e3e2f5100.png"/> </div><br>
2018-06-14 20:21:32 +08:00
Acceptor 接收到接受请求时,如果序号大于等于该 Acceptor 承诺的最小序号,那么就发送通知给所有的 Learner。当 Learner 发现有大多数的 Acceptor 接收了某个提议,那么该提议的提议值就被 Paxos 选择出来。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//bf667594-bb4b-4634-bf9b-0596a45415ba.jpg"/> </div><br>
2018-06-14 20:21:32 +08:00
## 约束条件
2018-07-28 01:05:53 +08:00
### 1\. 正确性
2018-06-14 20:21:32 +08:00
指只有一个提议值会生效。
因为 Paxos 协议要求每个生效的提议被多数 Acceptor 接收,并且 Acceptor 不会接受两个不同的提议,因此可以保证正确性。
2018-07-28 01:05:53 +08:00
### 2\. 可终止性
2018-06-14 20:21:32 +08:00
指最后总会有一个提议生效。
Paxos 协议能够让 Proposer 发送的提议朝着能被大多数 Acceptor 接受的那个提议靠拢,因此能够保证可终止性。
2018-07-28 01:05:53 +08:00
参考:
- [NEAT ALGORITHMS - PAXOS](http://harry.me/blog/2014/12/27/neat-algorithms-paxos/)
- [Paxos By Example](https://angus.nyc/2012/paxos-by-example/)
2018-06-14 20:21:32 +08:00
# 五、Raft
Raft 和 Paxos 类似,但是更容易理解,也更容易实现。
Raft 主要是用来竞选主节点。
## 单个 Candidate 的竞选
有三种节点Follower、Candidate 和 Leader。Leader 会周期性的发送心跳包给 Follower。每个 Follower 都设置了一个随机的竞选超时时间,一般为 150ms\~300ms如果在这个时间内没有收到 Leader 的心跳包,就会变成 Candidate进入竞选阶段。
2018-07-28 01:05:53 +08:00
* 下图表示一个分布式系统的最初阶段,此时只有 Follower没有 Leader。Follower A 等待一个随机的竞选超时时间之后,没收到 Leader 发来的心跳包,因此进入竞选阶段。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//111521118015898.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
* 此时 A 发送投票请求给其它所有节点。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//111521118445538.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
* 其它节点会对请求进行回复,如果超过一半的节点回复了,那么该 Candidate 就会变成 Leader。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//111521118483039.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
* 之后 Leader 会周期性地发送心跳包给 FollowerFollower 接收到心跳包,会重新开始计时。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//111521118640738.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
## 多个 Candidate 竞选
* 如果有多个 Follower 成为 Candidate并且所获得票数相同那么就需要重新开始投票例如下图中 Candidate B 和 Candidate D 都获得两票,因此需要重新开始投票。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//111521119203347.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
* 当重新开始投票时,由于每个节点设置的随机竞选超时时间不同,因此能下一次再次出现多个 Candidate 并获得同样票数的概率很低。
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//111521119368714.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
## 日志复制
2018-07-28 01:05:53 +08:00
* 来自客户端的修改都会被传入 Leader。注意该修改还未被提交只是写入日志中。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//7.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
* Leader 会把修改复制到所有 Follower。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//9.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
* Leader 会等待大多数的 Follower 也进行了修改,然后才将修改提交。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//10.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
* 此时 Leader 会通知的所有 Follower 让它们也提交修改,此时所有节点的值达成一致。
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
<div align="center"> <img src="../pics//11.gif"/> </div><br>
2018-06-14 20:21:32 +08:00
2018-07-28 01:05:53 +08:00
参考:
2018-06-14 20:21:32 +08:00
- [Raft: Understandable Distributed Consensus](http://thesecretlivesofdata.com/raft)