BT

如何利用碎片时间提升技术认知与能力? 点击获取答案

跟Monty Taylor和Jim Blair聊OpenStack的持续集成与自动化测试

| 作者 Sai Yang 关注 0 他的粉丝 ,译者 杨赛 关注 3 他的粉丝 发布于 2014年8月6日. 估计阅读时间: 14 分钟 | 如何结合区块链技术,帮助企业降本增效?让我们深度了解几个成功的案例。

OpenStack社区有一个CI和自动化测试小组,该小组为OpenStack社区的开发者们提供服务,而该服务所用的工具正是他们自己维护的一个OpenStack云环境。

对于这样一个囊括了十数个子项目,每月有300多位开发者提交代码的复杂项目,普通的CI系统是难以处理的。

我们跟该小组的负责人Monty TaylorJames Blair沟通,了解他们在构建和测试过程中所面临的挑战,以及他们是如何解决这些挑战的。

InfoQ:你们的CI系统每天处理多少次提交?你预计到Icehouse版本发布时会有多少?(注:本采访完成于2013年11月,当时距离Icehouse发布还有半年)

Monty:印象中,我们的系统最高处理过每日400次提交。这些仅仅是通过测试的部分,实际上我们的测试量要大于这个数字,因为只有通过测试的代码才会进入CI。

Jim:每次提交被审查之后,我们在实施合并之前会再做一轮测试。

Monty:对于每个被合并的提交,我们都会对其做8-10个不同的测试任务。因为测试会在上传的时候和合并之前各做一次,相当于每次变更我们都会跑将近20个测试任务。有一段时间我们的系统一天就跑了10000个任务。

从Grizzly到Havana,我们的集成、测试量基本上增加了一倍。基本上每个新版本我们都会增加一倍的量,到Icehouse应该也是如此。

InfoQ:你们都跑哪些测试任务?

Jim:首先是代码风格检测。因为我们的协作开发者人数众多,因此代码风格统一是非常重要的,我们需要确保大家都使用同样的编码方式。这是个很简单的任务,但很重要。

然后是单元测试,仅仅测试被变更的子项目,不考虑跟其他子模块之间有网络交互的情况。我们针对几个不同的平台做测试,包括2.6、2.7和3.3,基本上我们在CentOS上跑2.6,在Ubuntu上跑2.7。

然后是集成测试。我们用DevStack将所有的组件安装起来,然后在安装起来的这个单节点云实例上跑不同的模板。不同的模板对不同的模块进行不同的设置,比如使用不同的数据库、不同的消息队列。可以选择的种类很多,不过基本上我们只测试那些常用的,比如MySQLPostgreSQLRabbitMQ这些。

Monty:我们最近也在考虑引入ZeroMQ的测试。

Jim:如果社区里认为某个子模块比较重要,使用的人也越来越多,也有更多的人愿意参与到debug工作当中,那我们也会将这个模块加入。

InfoQ:测试任务是由谁来写的?

Monty:开发者自己写。我们的QA团队很小,基本上只关注测试系统本身的工作,不会有太多精力去关注测试任务本身。所以我们要求开发者自己提供单元测试和集成测试。

Jim:我们最近在讨论的一个话题就是在这方面做更严格的限制,即只有写好了集成测试的变更提交才能够被接受。

Monty:我们总觉得未经测试的变更就是有问题的。一般来说的确是这样。

Jim:现在项目发展的这么快,有这么多组件,这里或那里的一个小错误可能就把整个系统搞死。

InfoQ:性能测试有在做吗?

Jim:还没有,不过我觉得可能差不多可以启动了。我听说Boris Pavlovic正在做一个叫做Rally的测试系统,Joe Gordon则在进行一些可扩展性测试的工作——跟性能测试不太一样,不过关联比较大。这都是我们希望做的事情。

我们的测试显然没有覆盖所有的方面,不过我们最终希望测试所有的东西,当然这需要时间。

在本次发布周期内,我们关注于升级测试。现在我们已经在做一些,不过做的还不够,需要做更多。

InfoQ:在一个实例上运行一个测试任务大概需要多久?

Monty:一般在20-40分钟,具体时间长短跟实例的配置有关。

Jim:我们花了很多精力让测试变得并行化。我们构建了一个叫做Test Repository的框架,大多数单元测试在这个框架中已经可以并行处理,测试结果出的很快。

Monty:还有Jim写的Zuul,这个工具可以一方面并行的测试成套的变更,同时又保持他们的测试顺序不变。

InfoQ:运行测试用到了多少机器?用于运行测试用例的实例配置是怎样的?

Monty:我们自己是没有机器的。所有的测试都跑在公有云上,有些来自Rackspace,有些来自HP,都是赞助的。他们没找我们要钱,而我们需要多少就可以用多少。

Jim:上一个版本周期内,最高的时候我们并行跑了340个实例,一个实例就是一个VM。集成测试一般使用很基础的VM——8GB内存,系统是Ubuntu Precise。我们把这个节点搞起来,然后让DevStack在这个VM上安装OpenStack。

Monty:实际情况要比这个复杂,不过大概意思就是这样。我们有一个nodepool用来管理这些VM,通过缓存来预备这些机器。我们需要将DevStack需要的依赖等东西都预先下载到本地,这样测试本身就可以离线运转。

Jim:测试跑完之后,我们再销毁这些VM。实际创建的VM数量要比跑成功的测试数量多,因为Zuul的随机机制,有些时候它的测试跑到一半的时候才发现还需要一些其他东西,于是测试跑不下去了,我们会干掉这个VM,起一个新的。一个大致的比例是,如果一天跑10000个任务,那么启动的VM数量差不多在100000的量级。

InfoQ:可以认为用于OpenStack的Zuul模式是nvie git分支模式的一个改进吗?感觉Zuul似乎不适合分支过多的情况。

Monty:实际上我们是不采用nvie git分支模式的,因为我们用了Gerrit,所以我们的代码提交模式跟Linux内核的模式更像:人们在邮件里交换补丁。我们的做法不是建立很多的分支然后做合并,而是让每一个变更形成一个虚拟的私有分支。相对于将每一次变更生成一个新的commit并增添至分支的顶端的做法,我们的做法是:在之前的一次修改之上再进行修改。我们的测试针对每一个独立的commit,而不是针对一个分支。

每一个开发者可以建立本地的分支,这些分支是私有的,没有什么发布机制。我并不知道Jim的笔记本上的分支是什么样的。我自己用git的方式比较奇葩,我不用分支,而是每次在我的master上重置ref——这是个非主流的用法,git新手最好还是不要这么尝试。

所以,OpenStack的git补丁流程其实是基于Gerrit的。

Jim:另外,我们需要确保审查人员审查的对象是每一个commit(而不是分支)。理想状态下,每一个进入项目的commit都被人仔细的检查过。分支的话就会比较混乱。把每一个commit把关好,把好的commit合并,是比较精细的做法。

InfoQ:除了Zuul之外,你还提到了在Jenkins上使用Gearman来提高可扩展性,使用Logstash做debug,还有你上面提到的Test Repository将测试输出自动发给committer。目前的反馈机制是如何运转的?理想的情况是怎样的?

Monty:反馈机制整体来说是越来越好的。你的问题涉及到几个方面。有关用Gearman来提高Jenkins的可扩展性这一点,首先Jenkins本身的设计是针对一个master的情况,让它支持多个节点是通过hack的方式来完成的。我们一开始的用法是跑一个Jenkins master和若干个slave,并行跑的测试任务数量要比正常的Jenkins用法要多很多。Jenkins在设计当中涉及到很多全局锁,所以要像我们这样用起来,会遇到很多可扩展性的问题。

Jim:因为Jenkins在设计的时候根本没考虑过我们这样的用法。

Monty:所以我们就写了Gearman插件,这个插件的作用是让Jenkins将所有任务注册为潜在的Gearman任务,标记在Gearman服务器上。这样一来我们就可以针对一组测试任务建立多个Jenkins master,让Gearman来做任务分发,如果一个Jenkins master开始遇到瓶颈,我们就让Gearman把任务分发到下一个Jenkins master上。

Jim:一般来说,一个Jenkins master带100个slave之后就会遇到问题。我们要同时跑340个任务,那就需要3.4个Jenkins master来处理。

Monty:Logstash集群是个很有意思的东西。每一次DevStack安装的是整个的云环境,然后针对这个小环境跑测试。仅仅是安装的过程就会制造很多日志,包括Nova、Glance等等。如果遇到问题,开发者根本无从下手去debug,能够依赖的只有日志。所以,我们把所有的日志丢到一个很大的Logstash集群当中,这个集群通过elastic search的方式给所有的log建索引。这样,开发者就可以进去查看日志,了解到底发生了什么问题。这里面的Elastic Recheck是Joe Gordon、Sean Dague和Clark Boylan写的。

Joe:那个图表功能是我写的。

Monty:比如我们发现有一个任务导致测试跑失败了,我们会在LogStash上运行脚本,来检测这是否是我们之前见到过的错误类型。如果有匹配,我们会在邮件通知里将之前的bug报告附上,这样会帮助开发者更快的定位问题。

Jim:这其实是很酷,也很独特的。世界上像这种规模的项目是很少的,这种规模的测试、这种规模的日志,开发者很少能够在其他项目获取到。云平台这样的项目,开发者在自己的机器上是很难去发现代码可能会引起的问题的,因为很多问题都是要跑很多次不同的测试才能抓到——而我们的测试平台可以做到这一点!下一个发布周期内,我们会尝试让问题识别变得更加自动化,将变更和行为的特征更多的抽取出来,帮助开发者更快的定位问题。

InfoQ:你们做的这一大堆自动化测试的工作,感觉最难的地方是在哪里?

Monty:开发者很多,代码很多,测试需求量每6个月都会增长一倍。面对commit数量如此众多、快速增长的情况,我们需要提前预见到可能发生的问题,做好准备——因为如果真的遇到了问题,那么那个时候再去开发系统来解决问题就来不及了。自动化解决的问题不是今天的问题,而是三个月之后的问题。

正因为所有的测试都在我们这里,我们就必须确保这个系统一直能够正常运转。你的测试一天跑10000次,万一系统出了问题,给开发者发邮件说你的代码有错(而实际上根本不是他们代码出了错,是系统本身出了错),那就会很糟糕。误报比不报更糟糕,所以自动化必须做的非常靠谱。

还有就是,我们总是会遇到网络中断的问题——基本上我们有一半的时间都用来处理这个问题。所有的网站都会连不上:平时你自己去刷网页是感觉不到的,但如果你一天跑10000次自动化测试呢?如果Github平均有1%的时间是不可用的,你作为用户去刷页面没打开,重试一次就好;而我的测试系统每天从Github做10000次抓取,1%的不可用就相当于100次失败。

由于我们在跑的这个系统,我们也成了RackSpace和HP云的性能监控器。很多时候我们发现有一个问题,就去问他们的运维:“你们这个数据中心是不是网络出问题了?”然后他们会说:“对啊!我们也刚刚发现!”

Jim:Rackspace和HP云都是基于OpenStack的系统,所以我们的测试系统是在OpenStack上运行、为OpenStack做测试。用自己测试自己的代码,同时又测试自己的运行状态,这是个很酷的事情。

受访者简介

Monty Taylor是HP杰出工程师,OpenStack技术委员会成员、OpenStack基金会个人董事。他带领OpenStack基础架构项目、Ironic项目和TrippleO项目。

Jim Blair现在是OpenStack基础软件组的核心开发者,也是OpenStack CI项目的核心开发者。他也是OpenStack技术委员会成员,OpenStack基础架构项目的技术领导者。他目前任职于OpenStack基金会。

查看英文原文:Monty Taylor and Jim Blair on CI and Test Automation at OpenStack

评价本文

专业度
风格

您好,朋友!

您需要 注册一个InfoQ账号 或者 才能进行评论。在您完成注册后还需要进行一些设置。

获得来自InfoQ的更多体验。

告诉我们您的想法

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我
社区评论

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

讨论

登陆InfoQ,与你最关心的话题互动。


找回密码....

Follow

关注你最喜爱的话题和作者

快速浏览网站内你所感兴趣话题的精选内容。

Like

内容自由定制

选择想要阅读的主题和喜爱的作者定制自己的新闻源。

Notifications

获取更新

设置通知机制以获取内容更新对您而言是否重要

BT