BT

如何利用碎片时间提升技术认知与能力? 点击获取答案

每秒上百万次的跨数据中心写操作?Uber是如何使用Mesos和Cassandra来处理的

| 作者 highscalability 关注 0 他的粉丝 发布于 2016年12月22日. 估计阅读时间: 14 分钟 | AICon 关注机器学习、计算机视觉、NLP、自动驾驶等20+AI热点技术和最新落地成功案例。

本文翻译自How Uber Manages A Million Writes Per Second Using Mesos And Cassandra Across Multiple Datacenters,已获得原网站授权。

如果你也是Uber技术团队的一员,司机和乘客App每30秒就要发出一次定位数据,而你就要把这些数据全保存下来,你会怎么做?在Uber有很多类似的要实时处理的数据。

Uber的解决方案是非常完善的。他们在Mesos上面运行了Cassandra,基于这样的底层构建了自己的系统。Uber的一位软件工程师Abhishek Verma在最近的一次非常精彩的谈话“Cassandra on Mesos Across Multiple Datacenters at Uber”(slides)中详细解释了这个架构。

你是不是也在做着类似的事情呢?在听Abhishek的谈话时你就会不由自主地冒出这个有趣的想法。

在现在这个时代开发者总是要做出许多艰难的选择。我们是不是该把程序全部署在云上?选哪个云?会不会太贵?怕不怕用上就脱离不开了?或者是不是该将云上和自建两种方式结合,精心打造出自己的混合型架构?或者还是为了避免由于没能达到50%毛利润的目标而被董事会纠结,索性不要上云,全部自建?

Uber的最终选择就是自建,甚至更进一步,他们是把两个非常强大的开源模块拼接在了一起,打造出了他们自己的系统。需要的就是一种让Cassandra和Mesos可以一起工作的方法,而这正是Uber做的。

对于Uber来说做这个决定并不是那么困难。他们现金流非常充裕,所以能够请得到顶尖的人才,可以获得所需要的最好资源,以此来创建、维护以及更新这样复杂的系统。

由于Uber对于系统的目标是要让系统对于任何地方的任何人都有99.99%的可用性,所以对于系统在未来向无限种可能扩张这个目标来说,也是非常合情合理的。

但是当你听到这个谈话的具体内容的时候你就会意识到要做成这样的系统所有付出的惊人代价。这是不是一家象你这样的普通公司所能承受得了的呢?可能完全不行。如果你也对云持否定态度,总是觉得所有人都应该自建机房自己从头做起从硬件到软件地构建自己的系统的话,请你牢牢记住上面所说的这一点。

用钱来买时间通常都是划算的,而用钱来买技术就更是绝对必要的了。

就Uber的可用性目标而言,每一万个请求中只能允许最多有一个失败,那么他们的系统就必须构建于多个数据中心的基础之上。因为Cassandra已经被业界实践证实可以跨数据中心处理海量请求,所以用它做数据库的候选是完全可以胜任的。

而且,如果你想让交通运输对于任何地方的任何人都非常可靠,你就要非常高效地利用自己的资源。所以才需要使用类似Mesos这样的数据中心操作系统。据统计数据显示,在相同的服务器集群上复用多种服务可以帮你节约30%的服务器,这也就是节约了成本。选择Mesos的原因也是因为Uber的需求已经是要运行上万台服务器的集群,而在当时Mesos是唯一被证实能满足这个需求的产品。Uber做的系统总是规模很大。

还有没有别的更有趣的发现?

  • 可以在容器中运行有状态的服务。Uber发现把Cassandra直接运行在服务器上,与把它运行在用Mesos管理的容器中相比,两者几乎没有什么性能差别,只有5-10%的损耗。
  • 性能看起来不错,平均读延迟13ms,写延迟25ms,99%的测试数据都很令人满意。
  • 对他们最大的集群来说可以支持每秒超过一百万次写操作,以及数十万次读操作。
  • 灵活性比性能更重要。在这样的架构下Uber获得了灵活性。在集群之间运行和分担负载都不在话下。

以下是谈话摘要:

系统最早期

在服务之间静态分配服务器。

比如,50台服务器供API专用,50台供存储用,等等,而且它们之间并不重合。

现在的系统

准备在Mesos上面运行所有的东西,包括Cassandra和Kafka之类的有状态的服务。

  • Mesos是一种数据中心操作系统,允许你针对数据中心来编程,就象是一个资源池一样。
  • 在当时Mesos已被证实可以运行在数以万计的服务器上,这也是Uber的需求之一,所以他们才选了Mesos。现在Kubernetes可能也能符合这个要求。
  • Uber自己构建了名为Schemaless的基于MySQL的分布式数据库,也就是说Cassandra和Schemaless将是Uber的两大存储选择。现有的基于Riak的系统都会迁移到Cassandra上。

单机服务器上可以运行不同种类的服务。

统计数据表示,在相同的服务器上复用服务可以让总的服务器需求减少30%。这个数字是Google用Borg做的实验中总结出来的。

比如,如果一种服务会消耗非常多的CPU,那它就可以和另一种使用非常多存储或内存的服务共处得很好,它们两个可以在相同的服务器上运行。就提高了服务器使用率。

Uber现在已经有了约20个Cassandra集群,计划在将来可能会有100个。

灵活性比性能更重要。你要能非常方便地管理这些集群,并在上面做各种操作。

为什么在容器中运行Cassandra,而不是直接在裸服务器上运行?

  • 目标是存储几百个G的数据,还希望它们能跨数据中心在多台服务器之间复制。
  • 也希望在不同的集群之间做到资源隔离和性能隔离。
  • 在一个共享集群中达到上面所有目标是非常困难的。比如,如果你的Cassanra集群已经超过了1000个节点,那就难以扩展了,或者会在不同集群之间产生性能的干扰。

生产环境

在两个数据中心(西海岸和东海岸)之间有约20个集群在同步数据。

最初是有4个集群的,包括中国。但在与嘀嘀合并之后,那些集群就关闭了。

两个数据中心共有约300台服务器。

最大的两个集群,每秒有超过一百万次写操作和约十万次读操作。

  • 有一个集群存储的是位置数据,是由司机和乘客App每秒30秒就发送一次的数据。

平均读延迟为13ms,写延迟为20ms。

大多数采用的都是LOCAL_QUORUM一致性级别,也就是强一致性。

Mesos背景知识

Mesos将CPU、内存和存储从物理服务器上抽象出来。

你将不再针对单台服务器,而是要针对一个资源池来编程。

线性扩展。可以运行在上万台服务器上。

高可用。使用ZooKeeper在配置好的复本内部做选举。

可以在Mesos容器内部运行Docker容器。

可插拔式资源隔离。Linux上有Cgroup来做内存和CPU的隔离器,还有Posix隔离器。这些都是不同的操作系统上做资源隔离的方法。

两级调度。Mesos代理把资源分配给不同的框架。框架再在内部调度自己的任务来使用这些资源。

Apache Cassandra背景知识

Cassandra对于Uber的使用场景非常合适。

水平扩展。在新节点加入时读写能力都可以线性扩展。

高可用。可以调节一致性级别,提供不同程度的容错性。

低延迟。在数据中心内部达到微秒级延迟。

操作简单。同构的集群,没有主库的概念,所以集群中没有特殊的节点。

丰富的数据类型。有列、复合主键、计数器和第二索引等。

容易使用其它开源软件。Hadoop、Spark、Hive等都有可以接入Cassandra的连接器。

Mesosphere + Uber + Cassandra = Dcos-Cassandra-Service

Uber和Mesosphere合作写出了mesosphere/dcos-cassandra-service——一个自动化服务,可以很容易在Mesosphere的数据中心及操作系统上自动化部署服务。

顶层是Web接口或控制层的API。你定好你需要多少个节点、需要多少个CPU、写好Cassandra配置,然后提交给控制层API即可。

Uber部署系统的底层是Aurora,它是专用于运行无状态服务的,用于启动dcos-cassandra-service框架。

在例子中dcos-cassandra-service框架有两个与主Mesos交互的集群。Uber在系统内使用了五个Mesos主,并用ZooKeeper完成选主操作。

ZooKeeper也用于存储框架元数据:哪些任务在运行、Cassandra的配置、集群健康状况等。

Mesos代理运行在集群的每一台服务器之上。代理向Mesos主提供资源,主再把它们分配给具体的请求者。框架可以接受或拒绝分配给它的资源。在一台机器上可能运行多个Cassandra节点。

用的是Mesos容器,而不是Docker容器。

  • 要覆盖掉五个默认配置(storage_port, ssl_storage_port, native_transport_port,rpcs_port,jmx_port),这样就可以在一台机器上运行起多个容器了。
  • 使用了持久卷,这样数据就可以保存在沙箱目录之外了。如果Cassandra出了故障崩溃了或者重启了,数据仍然在持久卷上,还可以恢复出来。
  • 动态预订技术用于保证在重新启动一个失败了的任务时,是有资源可用的。

Cassandra服务操作

  • Cassandra有一个种子节点的概念,可以在新节点加入时启动一个进程来把数据迁移过去。在Mesos集群中创建了一种定制的种子提供者,在想自动替换Cassandra节点时可以启动它。
  • Cassandra集群中的节点数可以通过一个REST API来增加。它会启动新增节点,分给它种子节点,再启动其它的Cassandra守候进程。
  • 所有Cassandra的配置参数都是可改的。
  • 用了API,死掉的节点就可以被替换掉。
  • 要在副本之间修复数据并同步出去。修复是一个一个节点按主键去修的。这种操作不会影响性能。
  • 清除操作会删掉不需要的数据。如果有新节点加入,部分数据被移到新节点上了,那旧节点上就要执行清除操作来删除已经移走了的数据。
  • 多数据中心之间的数据复制可以通过框架配置。

多数据中心支持

  • 每个数据中心都有单独安装的Mesos。
  • 每个数据中心都有框架的独立实例。
  • 框架之间会相互通信,并周期性地交换种子。
  • 这就是所有Cassandra需要的东西。通过启动另一个数据中心的种子进程,节点就可以学到各个节点的拓扑、数据等。
  • 在数据中心之间轮询ping延迟是77.8ms。
  • 50%的异步复制延迟是44.69ms,95%是46.38ms,99%是47.44ms。

调度器执行

  • 调度器执行被抽象成了计划、阶段和块等。调度计划下面有不同的阶段,一个阶段有不同的块。
  • 调度器执行的第一阶段是同步,它会找到Mesos,了解都运行了什么。
  • 还有部署阶段,会检查配置中的节点是不是都已经存在了,并按需要部署它们。
  • 一个块表现为Cassandra的节点描述。
  • 还有其它阶段:备份、恢复、清理、修复等,取决于调用的是什么REST服务。

集群可以以一分钟一个新节点的速度启动。

  • 希望能优化到30秒启动一个新节点。
  • 在Cassandra中不同的节点不能并行启动。
  • 通过每个Mesos节点会分配2TB的磁盘空间,以及128GB的内存。每个容器分配100GB,每个Cassandra进程分配32GB堆空间(注意,这一点不太确定,细节可能有出入)。
  • 用的是G1垃圾回收器,而不是CMS,不需要做什么调节就可以有非常好的延迟和性能。

裸服务器与用Mesos管理的集群之间的对比

使用容器有什么性能代价?裸服务器意思是Cassandra没有运行在容器中。

读延迟:几乎没差别,5-10%的开销。

  • 在裸服务器上平均是0.38ms,而在Mesos上是0.44ms。
  • 在99%的情况下,裸服务器是0.91ms,而Mesos是0.98ms。

读吞吐量:几乎没差别。

写延迟。

  • 在裸服务器上平均是0.43ms,而Mesos上是0.48ms。
  • 在99%的情冲印上,裸服务器是1.05ms,而Mesos上是1.26ms。

写吞吐量:几乎没差别。

更多引用文章请参考原文附录。

评价本文

专业度
风格

您好,朋友!

您需要 注册一个InfoQ账号 或者 才能进行评论。在您完成注册后还需要进行一些设置。

获得来自InfoQ的更多体验。

告诉我们您的想法

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我
社区评论

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

讨论

登陆InfoQ,与你最关心的话题互动。


找回密码....

Follow

关注你最喜爱的话题和作者

快速浏览网站内你所感兴趣话题的精选内容。

Like

内容自由定制

选择想要阅读的主题和喜爱的作者定制自己的新闻源。

Notifications

获取更新

设置通知机制以获取内容更新对您而言是否重要

BT