@Rays
2018-09-10T09:38:39.000000Z
字数 12175
阅读 1546
架构&设计
摘要: 分布式流数据处理框架Wallaroo需要支持计算群集规模的调整,实现此需要一种大小可调整的分布式数据结构。一个好的做法是使用分布式哈希表,但问题在于应该如何选择分布式哈希算法?本文探讨了一致性哈希是否的确适用于Wallaroo,分析了现有技术的利弊,并介绍了一种称为随机切片的新技术。
审校: Charles Humble
正文:
哈希表是一种用于管理空间的数据结构。它最初用于单一应用的内存,之后应用于大规模的计算集群。
随着哈希表在一些新领域的应用,原有的哈希表大小调整方法存在一些不好的副作用。
亚马逊公司于2007年发表的Dynamo论文提出将一致性哈希技术应用于键值存储。Dynamo类型的一致性哈希很快被Riak Core及其它一些开源分布式系统采纳。
Riak Core一致性哈希的实现具有一系列局限性,导致在集群规模更改时出现问题。
随机切片是一种非常灵活的一致性哈希技术,避免了Dynamo类型一致性哈希中存在的所有局限。
今年秋天,Wallaroo Labs将发布其分布式流数据处理框架Wallaroo的一系列新功能。其中一项新功能是支持调整计算群集的规模,实现该功能需要一种大小可调整的分布式数据结构。一个好的做法是使用分布式哈希表。但问题在于,我们应该如何选择分布式哈希算法?
使用一致性哈希技术建立可调整大小的分布式哈希表已有20多年的历史。看上去似乎一致性哈希能很好地适用于Wallaroo的情况。鉴于此,本文将探讨一致性哈希是否的确适用。文章的结构如下:
大多数程序员都熟悉哈希表。对于初次接触哈希表的人而言,推荐阅读维基百科中哈希表的相关文章。本文中仅对此给出一个概要介绍。非常熟悉哈希表的读者可直接跳到本节末尾的图一。文中还使用了几个类似的图,用于说明一致性哈希方案。
哈希表是一种组织计算机内存的数据结构。对于键“key”,如何确定存储key相关联值“val”的位置?
下面的伪代码来自维基百科文章:
let hash = some_hash_function(key) ;; hash是整数。
let index = hash modulo array_size ;; index是整数。
let val = query_bucket(key, index) ;; val可以是任何数据类型。
一个哈希表通常包含上述三个基本步骤。其中,前两个步骤首先将key(可以是任意数据类型)转换为一个非常大的数值(即例子中的变量hash
),然后再转换为一个相对更小的数值(例子中的变量index
)。后者通常称为“桶索引”(bucket index),因为它在哈希表的具体实现中通常使用数组实现。变量index
的值通常使用取模运算计算得到。
一些类型的哈希表在一个桶中存储单个值。因此,桶的总数(即上例中为array_size
)是一个非常重要的常量。但是如果桶的规模是一个常量,那么我们应该如何调整哈希表的大小?做法很简单,允许array_size
作为一个变量而非一个常量即可。但是这时如果继续使用取模运算计算index
桶的编号,由于array_size
的大小可调整,哈希表依然存在着问题。
下面,我们将哈希表的桶数由3改为10,然后查看一下前24个哈希值,即从0到23。
图一 使用取模算法将哈希值分配给桶的图示
在图一的最左端,哈希值0、1、2、3所指派的桶并未发生变化。但是当取模算法再次“转回”到桶0时,此后的指派全部发生了变化。读者们可以看到一条从“(hash=4, buckets=3)”开始延伸到图右端的红色对角线。如果我们调整了桶的数量,那么该对角线右侧的大部分值也相应地发生了移动!
随着array_size
值的增加,值移动问题会加剧。尤其是当array_size
从增加到时,只有的值依然位于原来的桶中。而我们希望发生的情况正相反,我们希望只有的值移动到新桶中。
一致性哈希是一种能提供预测哈希表大小调整行为的方法。下面我们介绍一种特定的一致性哈希实现,并给出哈希表调整操作。
哈希表传统上是一种用于组织计算机内存空间的数据结构。1997年,阿卡迈公司(Akamai)的研究者们发表了一篇影响深远的论文,名称是“一致性哈希和随机树:一种用于万维网上热点问题的分布式缓存协议”(Consistent Hashing and Random Trees: Distributed Caching Protocols for Relieving Hot Spots on the World Wide Web)。论文提出使用哈希表实现对另一种类型空间的组织,即HTTP服务器集群的缓存。
在SOSP 2007上,亚马逊公司发表了名为“Dynamo:亚马逊公司的高可用键值存储”(Dynamo: Amazon's Highly Available Key-value Store)的论文。受该论文的启发,Basho Technology公司的创始者们创立了一种Dynamo的开源实现,称为Riak键值存储。在亚特兰大召开NoSQL East 2009大会上,Justin Sheehy通过演讲首次公开介绍了Riak。此后,Riak的核心软件库代码从Riak数据库分离出来,并作为独立的分布式系统平台使用。
我注意到Damian Gryski在今年(2018年)早期撰写的一篇博客文章,“一致性哈希:算法上的权衡”(Consistent Hashing: Algorithmic Tradeoffs)。我推荐大家阅读该文,文中介绍了一致性哈希功能的一些其它实现方法,并给出了对比情况。
目前有大量介绍如何使用Riak Core一致性哈希算法的资料。本文将通过例子做一个概要介绍,目的是为了引出后文对Riak Core哈希方法局限性的讨论。
文中引用了Justin Sheehy最早演讲中使用的几个示意图。第一个示意图显示了一个具有32个分区的哈希环,各个分区分别指派给4个节点。Riak Core使用SHA-1算法将哈希字符串转换为整数。SHA-1的输出大小为160位,可以直接映射到整数范围 。
图二 一个具有32个分区的Riak环,间隔分别指派给4个节点
在Riak Core的数据模型中,命名空间被分隔为“桶”(bucket)和“键”(key),这不同于我在本文最后一节所使用的定义。本例中使用了名为“artist
”的Riak桶和名为“REM
”的键。我们将这两个字符串连接在一起,作为Riak Core一致性哈希函数的输入。
在本例中,哈希环被分隔为同等大小的32个分区,平均分配给四个服务器节点,即每个节点指派了8个分区。字符串“artist
”+“REM
”通过SHA-1映射到哈希环中大约4点钟的位置。可以看到,node3(粉红色节点)分配给哈希环该部分。如果不考虑数据副本,那么我们可以说node3就是负责存储键“artist
”+“REM
”对应值的服务器。
下面考虑在第二个例子中添加数据副本。如果node3崩溃了,会发生什么?这时应该如何定位存储键所对应值的副本?
图三 在32个分区环上的Riak get查询
Riak Core使用了多个常量描述数据副本的存储位置,其中包括每个键对应值的副本总数,以及从数据库成功获取键的最小服务器查询数。为计算确定对应于单个键的所有服务器,哈希算法采用“顺时针在环上行走”,直至找到个不同的服务器。在例三中,副本集被粉红色、绿色和橙色服务器处理(即node3、node0和node1).
如果图中的node3(红叉标识的粉红色分区)已经崩溃,这时Riak Core客户发送查询到的服务器,node3并不会响应。但是来自node0和node1的副本足以满足的约束。客户响应将是成功回复。
我曾在Basho Technologies公司任高级软件工程师达六年。通过自身的一些事后反思,以及与不少Basho前同事的讨论,在此我对Riak Core一致性哈希算法做出尽量客观的批评。我支持Basho继续保留这些我称之为局限性甚至可以说是缺陷的问题,因为它们在当时都是合理的权衡考虑。我们现在的看法都是一些后见之明,并且我们也有时间去反思学术界和工业界的新发现。Basho公司于2017年被清算,其源代码资产出售给英国的Bet365。Riak Core的维护工作仍继续在其所有者Bet365和Riak开源社区中进行。
下面列出了Riak Core在实现Dynamo风格的一致性散列算法中的一些假设和局限性。列表的排序是大致按问题在Basho Technologies公司的严重性、麻烦程度、触发客户支持工单数以及升级情况。
其中,局限性1和2并非大问题,它们都与使用SHA-1哈希算法相关。160位的有效哈希范围足以适用于我所知道的所有Riak用例。有大量Basho客户想要用其它算法替换将SHA-1算法。Basho支持团队的官方回应总是,“我们强烈建议您使用SHA-1”。
局限性3到5曾在一段时间内有影响,但是它们已在很久以前被清除了。这些局限性的存在,一开始人们的理由是“Dynamo就是这么做的”。此后理由成为“Riak代码最初就是这么做的”。在创建了Riak Core软件库后,理由变成“这都是一些没有人愿意碰的遗留代码”。抱歉,在此我不一一展开介绍,具体原因偏离了本文的主题。
局限性6到9曾对那些优秀的Basho客户支持工程师和开发人员造成了很大的麻烦,最终影响了Basho的市场和业务发展。存在缺陷的“声明指派”(局限性6)导致了严重的数据迁移问题,即当数据需要从个服务器移动到个服务器时,会在一些机缘巧合的和组合上出现问题。非常难以实现将原来的Riak集群从一些更旧更慢的硬件迁移到更新更快的机器(局限性7),因为在哈希环指派中Riak Core假定所有的机器具有同样的CPU和磁盘容量。尽管这些缺陷可以通过人工解决,但是几乎每次都需要Basho支持团队的参与。
对于“Justin Bieber”现象(局限性8),即在某个“热”键上的查询数呈数量级地高于其它键,Riak Core对此束手无策。因为Riak Core分区的大小是固定的,将同一分区的任何键作为超级热键,这都会导致性能降低。唯一的缓解方法是迁移到具有更多分区的哈希环,但这样做违反了局限性3。该问题可以(在Basho支持的帮助下)人工解决,但是需要做人工干预指派(服务器按顺时针顺序指派给哈希环),将热键分区指派给更大更快的机器。
局限性9是一个长期存在的市场和业务扩展问题。为每个对象维持个副本,对此Riak Core通常很少存在问题。作为一个最终一致的数据库,Riak为避免出错采取了一种更保守的做法,即对每个对象制作多于个副本,然后在自动“切换”过程中复制并合并副本。
但是,Riak Core的声明指派并不支持“机架可感知”和“出错域可感知”。通用电力支持、网络路由器及其它通用基础设施故障,会导致多个副本同时失败。为支持单个静态数据中心的配置,有时我们需要手工创建“在哈希环上顺时针行走”的副本选择策略。一旦机器再次发生改变(或是单个服务器发生故障),将会违反我们希望的副本放置策略。
亚马逊公司于2007年发表的Dynamo论文影响深远。Riak采纳了Dynamo提出的一致性哈希技术,并且时至今日依然在使用。此外,Cassandra数据库使用了一种闭源的变体实现,还有其它一些系统也采纳了Dynamo的模式。作为一名业界从业者,读论文并思考的感觉很美妙,“这个理念非常好!”,“我可以轻松地编码实现它”。但是,我们同样需要从另一个角度出发,考虑时间和经验并提出疑问“这还是个好主意吗?”
我曾在Basho Technology公司维护、支持并扩展了Riak的一些子系统。我认为Riak曾在2009年做了大量有用的工作,并且时至2018年看来许多依然是正确的。但其中并不包括Riak的一致性哈希。我们在上一节中介绍的局限性,会导致了很多无法避免的实际问题(虽然我们是事后诸葛亮!)。其中一些局限性的根源出在最初的Dynamo论文。作为业界,我们现在已具备很多经验,它们来自于Basho及其它一些开源分布式系统。自2007年以来学术研究领域也得到了十多年的发展,完全改进或取代了Dynamo的工作。
Wallaroo Labs决定为Wallraoo寻求一种替代的哈希技术。我们当前使用的方法称为“随机切片”(Random Slicing)技术。下面将做详细介绍。
随机切片是Riak Core一致性哈希的一种替代技术。随机切片的论文是由Miranda等研究人员在2014年发表的,论文名是“随机切片:一种用于大规模存储系统的高效、可扩展的数据放置技术”(Random Slicing: Efficient and Scalable Data Placement for Large-Scale Storage Systems)。它与Riak Core技术的主要区别在于:
在我看来,上述差异足以弥补Riak Core一致性哈希的所有局限性。下面给出一些示例图,用于介绍随机切片的理念。通过这些示例图,我们将重新查看上文列出的Riak Core的主要痛点。
首先给出的示意图(图四)中,显示了一个仅涉及三个节点的随机切片哈希表的所有可能情况。
图四 三个节点映射的六种随机切片策略
在图四显示的所有六种可能情况中,分配给节点、和的哈希空间量分别为33.3\%$。最上面显示的一种情况是最简单的,即每个节点分配了一个连续的空间。情况2到4看上去非常类似于Riak Core最初的环声明策略,只是没有Riak Core的分区个数必须是2的指数次幂的局限性。情况5也称为“混杂循环分区”(Assorted Round Robin Partitions),事实上它是前面一些情况的组合,包括:情况2用于0%-50%区间的间隔,情况4用于50%-75%区间的间隔,情况3用于75%-100%区间的间隔。最下面显示的是对情况4中的间隔做了随机排序。注意,在其中三种情况下,节点分配了相邻的间隔!
图四显示的所有情况,都是在某一时刻的有效哈希表随机切片策略。图五给出了一个哈希表的大小随时间变化(沿Y轴从上到下)的例子。
图五 一个简单例子,随机切片哈希表的大小从1个节点调整为4个节点
图五给出了一种非常不好的情况。我个人并不建议这样使用随机切片。此例说明了随机切片也存在一些并非最优的用法。在本例中,当节点规模依次从一个节点变成两个节点、从两个节点变为三个节点、从三个节点变成四个节点时,哈希空间中变动的键的总数约等于。这大大超过了最优解决方案产生的数据移动。
图六给出了从一个节点依次增加到四个节点的一种最优转变,该例中进一步采用了重新加权操作。
下面将节点的权重从1.0增大到1.5。例如,节点的磁盘容量相比其它节点升级了50%。
图六 随机切片哈希表的一系列转变,节点数依次从一个添加到四个,之后的权重增大50%
在完成第四步之后,全部四个节点都已经使用同一权重添加,每个节点指派的间隔合计。每步迁移的数据总量以及合计迁移的数据总量都是最优的,即。与图五给出的非最优情况相比,图六的步骤避免了大量的数据移动!
在第五步中,节点的权重从1.0增大为1.5,分配给的哈希空间总量从增大到。这样,其余三个节点必须放弃一些哈希空间,即每个节点从收缩到。分配的哈希空间比例正是我们所期望的,即。
最后,我们看一下图七给出的转移情况图。在一开始,在随机切片哈希表中有四个节点。然后我们每次添加三台服务器(表示为图中的一行),共添加四次。最终,随机切片哈希表中将包含16个节点。下面,我们使用三种不同的技术查看哈希表,即Riak Core一致性哈希、使用最优切片策略的随机切片,以及简单的连续指派策略。
图七 使用三种不同的切片策略,规模依次变为4个节点、7个节点、10个节点、13个节点到16个节点。
下面对图七给出几点解释:
下面以具有四个节点的哈希表为例,介绍完美的随机切片策略,就是图七所显示的情况。假定我们的Justin Bieber式超级热键准确地映射到哈希空间的处。从图七中可看到,处映射为节点。我们知道并不能处理Justin Bieber式键的全部负载以及所有指派给该节点的其它键。
但是,随机切片允许我们灵活地创建一种非常细微的新分区(例如,范围从6.00000%到6.00001%的分区),并指派给节点。这里是一台Cray 11超级计算机,市面上可买到的最快计算节点。这样问题就解决了!
问题或许得到了解决,但是也可能并未解决。现实世界中我们并没有Cray 11。但是如果使用一种灵活的布置策略,是可以解决Justin Bieber问题的。
Riak Core一致性哈希存在一个弱点,目前尚未被随机切片技术解决,那就是布置策略。但是该问题很容易修复,只需要添加一个间接层级!(该方法由David Wheeler提出,参见维基百科的“Indirection”词条。
图六(再次给出) 随机切片哈希表的一系列转变,节点从一个添加到四个,之后的权重增大50%
这里我们重看一下图六。图六一开始,显示了将一个哈希空间间隔映射到单个节点或单个机器的情况。我们在此换种做法,引入一个间接层,转而从哈希空间间隔映射到一种副本安置策略。之后,我们可以定义我们所希望的任一安置策略。例如:
下面介绍实现随机切片所需的数据结构、分区策略上的考虑,以及随机切片自身可做的事情。
如果我们当前就需要编写一个随机切片软件库,一种解决问题的方法是只考虑主要的约束。下面列出一些需要考虑的约束:
约束A用于选择将字符串或字节数组映射为整数的哈希函数,以及选择用于范围查询的数据结构。对于前者,SHA-1等加密哈希函数是否足够快?对于后者,是否需要分区表搜索速度,或是即足矣(其中,是哈希表的分区数)?
一并考虑约束A与约束B,可以决定使用哪种数据结构进行范围查询。选择的目标是:给定一个整数(即所选用的SHA-1等标准哈希函数的输出值),那么如何选取随机切片分区使得。使用间隔树(interval tree)软件库几乎就能实现上面的工作。同样,使用平衡树(Balance Tree)软件库可以执行“小于或等于”查询,即将所有下限值插入树中,然后执行一个小于或等于的查询。一些Trie树软件库中已经包括此类查询,可为应用在空间与时间的权衡上提供更好的权衡。
如果用户需要自己编写代码,那么一个策略是用排序数组存储所有的下限值。在执行小于或等于查询时,可使用二分搜索法查找数组,找到所需的下限值。这正是当前Wallaroo使用Pony语言实现的方法,:
class val HashPartitions
let _lower_bounds: Array[U128] = _lower_bounds.create()
let _lb_to_c: Map[U128, String] = _lb_to_c.create()
最初选用的哈希函数是MD5。MD5性能可满足Wallaroo需求,并输出适用的128位值。Pony原生支持无符号128位整数数据和运算。
上面给出的数据结构(代码链接)中,使用U128
无符号128位整数数组存储每个分区间隔的下限值。
使用二分查找法搜索下限值(代码链接)。
使用下限整数值作为Pony Map类型Map[U128, String]
的键。该Map的键为一个U128
类型的整数,返回一个String
类型的值。
最终,我们得到一个String
数据类型,它表示了负责输入键的Wallaroo工作进程名。如果需要支持更通用的安置策略,可将String
类型变更为一个表述所需安置策略的Pony对象类型。该方法也可以返回一个整数值,表示安置策略对象数组的索引。
与之相对比,为简化了数据结构,Riak Core设置了一些局限性,包括固定分区大小、分区数为2的指数次幂等。给定一个大小为的哈希环,SHA-1哈希值的前位用作分区描述符数组的索引。
随机切片所需的数据结构非常适中。正如在前面图四和图七的例子所示,随机切片的优点主要来自于对哈希分区的巧妙放置和调整大小。那么我们应该使用哪些算法?
我们可以从Miranda及其合作者发表的随机切片论文着手。其中可使用一些解决“装箱”问题的算法和策略,尽管标准的装箱算法并不允许更改装箱物体的大小或形状。
从实用的角度看,如果随机切片哈希表的添加操作非常频繁,那么就会创建一些范围非常狭小以至于不能使用底层数据结构表示的分区。在几年前我为Basho编写的代码中(并未被Riak使用),底层数据结构使用了介于0.0到1.0之间的浮点数。对于一次添加一个节点到哈希表中,如果重复添加操作数十次之后,那么分区范围会变得非常狭小,以至于无法用双精度浮点数变量表示间隔值。
一旦无法对分区做进一步分片时,必须重新分配部分分区,将许多小的分区合并为较大的数个分区。任何这样的重新分配操作都需要移动数据,“没有其它任何理由”,只是为了使分区可以重新做切片。如何选择最小间隔以使得需重新分配的间隔总和最小,同时使创建更大连续分区的优点最大化,这里存在大量值得做进一步研究的优化问题。我们也可以使用另一种方式解决此问题,即升级应用。使用其它一些具有较小最小分区规模的数据结构,解决全部升级的麻烦。任何一种方法都可能适用。
如果我们已经使用了正确的数据结构,并编写了全部的代码实现随机切片哈希表,那么我们是否已经解决了应用中的所有分布式数据问题?虽然我想说是的,但答案是并非如此。还有其它一些事情需要考虑:
随机切片并不能解决上述任何问题,也不存在一种所谓“分布式应用+随机切片=大小可调节的分布式新应用”的单一解决方案。这些问题的解决方案是应用特定的。
希望读者能认可我的这一说法,即随机切片方法是一种比Riak Core一致性哈希更灵活和更有用的哈希方法。随机切片可提供跨机器的细粒度负载均衡,同时可最小化在随机切片哈希表中添加、删除或重加权计算机时的数据复制。随机切片易于扩展,支持任意的放置策略。通过在随机切片映射中添加范围非常细微的切片,可实现将流量重定向到专用服务器(或放置策略),解决“Justin Bieber“式超级热键的问题。
Wallaroo Labs将会很快在Wallaroo数据处理流水线中使用随机切片技术,实现对处理阶段的管理。Wallaroo能够在消除不必要的数据迁移的情况下,调整各个参与者的工作负载。这一点非常重要。虽然我们并不需要多种放置策略,但是用户大可放心,无论何时何地一旦有此需要,随机切片将简化这些策略的实现。
截至2018年8月,下列URL均可正常访问。
Bet365,“Riak Core”。
Decandia等,“Dynamo:亚马逊公司的高可用键值存储”(Dynamo: Amazon's Highly Available Key-value Store”),2007年。
Karger等,“一致性哈希和随机树:一种用于万维网上热点问题的分布式缓存协议”(Consistent Hashing and Random Trees: Distributed Caching Protocols for Relieving Hot Spots on the World Wide Web),1997年。
Metz,Cade,“How Instagram Solved Its Justin Bieber Problem”,2015年。
Miranda等,“随机切片:一种用于大规模存储系统的高效、可扩展数据放置技术”(Random Slicing: Efficient and Scalable Data Placement for Large-Scale Storage Systems),2014年。
Sheehy,Justin,“Riak:控制你的数据,而非让数据控制你“(Riak: Control your data, don't let it control you),2009年。
Wallaroo Labs,“Wallaroo”。
Wikipedia,“Hash Tables”。
Wikipedia,“Indirection.”。
Gryski,Damian,“一致性哈希:算法上的权衡”(Consistent Hashing: Algorithmic Tradeoffs),2018年。
Scott Lystig Fritchie曾担任UNIX系统管理员十多年,从2000年开始在Sendmail公司转为一名全职编程人员。在Sendmail工作期间,有一位同事向他介绍了Erlang,他的世界从此发生了改变。他曾在USENIX、Erlang用户大会和ACM上发表过论文,并在Code BEAM、Erlang Factory和Ricon上发表过演讲。他曾四次担任ACM Erlang系列研讨会的联合主席。Scott目前居住在美国明尼苏达州明尼阿波利斯市,在Wallaroo Labs致力于Pony、Python、Go和C等多语言的分布式系统。
查看英文原文: A Critique of Resizable Hash Tables: Riak Core & Random Slicing