请选择 进入手机版 | 继续访问电脑版

IT运维管理,ITIL,ITSS,ITSM,ISO20000-ITIL先锋论坛

 找回密码
 微信、QQ、手机号一键注册

扫描二维码登录本站

QQ登录

只需一步,快速开始

艾拓先锋
搜索
查看: 138|回复: 0

基于DevOps如何建设Android交付工具链

[复制链接]
来自- 日本

参加活动:0

组织活动:0

发表于 2018-11-5 10:31:50 | 显示全部楼层 |阅读模式 来自- 日本
本帖最后由 adminlily 于 2018-11-5 10:36 编辑
2 ~+ b8 U$ d  B5 y( n
/ F7 [; z; l) [# _6 u前言:有人说 DevOps只适用于初创公司,有人说DevOps只适用于大公司,有人说DevOps只适用于互联网服务。事实胜于雄辩,我们来看看DevOps是如何改变Android操作系统的交付模式的。' v% R" y; e. r" m. ~, o- _% r
% {5 M4 w; E/ h4 |( A+ D
/ e8 ^8 ]: m- h
一、DevOps 和 Android 的发展1.1 Android 的十年

) H$ v5 z9 p& n5 ]$ `( b1 A& c
: z, M* j0 o8 x/ `( V
不知不觉中,从2007年Android第一个版本发布到现在已经整整十个年头。在移动互联网时代,Android基于一种开源合作的精神,同很多厂商共同打造了一个现象级的生态系统,也是一个非常成熟的生态系统。Android的成功真正影响了我们很多人移动互联网时代的生活方式。: r: [. U1 |7 s  _  O4 l' e: U

# u( f. J; M% S) M; G8 m
4 m/ X6 y8 c, }0 I
% p% B6 {" z4 N0 l# M
1.png
- O+ w- A* y/ W* j2 u

- X! l  d4 [4 u& Z# m- x: i" K) {; `" [& U9 W0 F& s3 f1 _3 ]" x, a. ^

2 b, E' z7 ?1 x8 b. Z; t1.2 DevOps 历史

3 d& q% A4 u& p
# \; m4 K' ]1 k# i: `
近来关于DevOps话题谈论的很多,简单回顾下历史,从2009年第一届DevOpsDays召开到现在也有八年的时间了。这并不是一个非常新的概念,但毫无疑问DevOps无疑是这两年业界的当红炸子鸡,火爆异常。不知道提到DevOps大家会联想到什么,这里有一些画面,第一个就是一天10次部署,这是2009年Flickr在Velocity大会上的一个公开演讲,可以说这是第一次把基于DevOps的工程实践对外公布。在这个演讲中也阐述了很多基于文化和实践的本身的思考,很有启发。

8 P3 m* V% h/ a$ W

; @2 g; ]0 H* E
1.png
其次是一个前两年发布的数据,Amazon每天23000次的部署,当第一次看到这个数据的时候还是非常震惊的,也体现了DevOps能够带来的卓越的工程效率水平提升。
+ X  p4 g3 R: x4 k+ c4 Y' h2 L
5 _5 y: B$ M7 x) Q4 y3 z* d
1.png
最后就是今年的DevOps状态报告,报告中从各个方面阐述了DevOps对整个IT组织效能的提升,也统计了不同IT效能团队之间的显著差距。不管怎么说,关于DevOps我们的核心目标都是要快速、高质量的交付价值,在这点上所有人都是可以达到一致的。

3 A3 J* y8 o2 E; [7 A! L( h0 T# Z

9 @  B: U  c) I& d' ]
1.png
说到这里,有些熟悉Android产品形态的同学应该就会来反驳我了,以上这些数据大多来源于Web产品的实践总结,对于一个Android手机如果每天推送两万三千个版本,那么这个手机直接就废掉了。

0 |# X6 p7 S1 [0 C( \

/ K) R1 S( |) i/ W0 X) [% G
的确如此,如果对比Web应用和Android系统,无论从代码的大小、文件数量、架构复杂度、以及编译时间、发布频率、团队规模等等维度,这两者实际上存在着非常大的差异。似乎当我们每次提到DevOps的时候,自然而然的都会关联到微服务,容器化,Web应用等话题。

  l1 D3 y& F9 L( x& {

; e3 ]5 G" s+ _( ]
1.png
1.3 DevOps 对 Android 是否实用?+ L* h8 i6 d0 H1 G" y1 k
* B9 k* @1 \- n+ s- P
我们就会产生这样的疑问,DevOps对Android是否适用?
3 ~- Y7 u1 J  `* k- z2 E
" x$ h7 B# w/ u3 }2 F
在移动互联网时代如果想活下来,就要以百米的速度跑马拉松,这是移动互联网时代的法则。

' T2 q  r- @! I: G

% O/ ~- b3 W8 q- j; q% x# M4 I2 r
1.png
对于Android来说它还是一个胖子,它在移动互联网时代到底是否可以活下来,这是我们要回答的问题。
; h# K$ A3 c( K; M

3 y5 F) m  K: I' ?8 V
答案显而易见,我认为DevOps对于Android同样适用。其实从Android诞生之初,我们似乎就在一直寻求一种方法,这种方法就是以Web的速度来发布一个操作系统。这两天在听很多其他人分享的时候,提到一个双态运维的概念,挺有感触的,其实对于Android这样一个系统来说也可以理解为是一个双态的系统,包括偏于稳态的底层驱动部分和偏于敏态的用户界面应用部分。

6 ]+ G. f: n4 }$ V6 |

2 L' d  I3 V$ e  {( D
1.png
回顾一下Android系统发布的演进就能看出这样的趋势,一开始Android的系统升级都是整包升级,软件包体量会上G,基本上是一个月更新一次。之后采用差分包技术,只推送基于上次软件的二进制差异内容,大大减小了发布的体积。
  ~6 I3 D$ c  T6 P5 o
; j& b( v) d# O! e. f+ h: I
再往后从系统应用架构层面进行重新解耦,应用可以做独立的发布,不再依赖系统整包升级,敏态和稳态系统分离进一步加快了我们发布的频率。

. M1 D+ }% n( A! Q, s* U

" s# T( ~' @2 g/ |2 O  r
到了现在,随着Android应用的热修复和基于ReactNative等Web技术化的成熟,Android基本实现了Web应用同级的体量,基本上可以做到按需发布。通过技术架构的不断进化,这个时间线也展示了升级频率从按月到随时发布的演进路径。
& ^% v+ P! Z/ ]& u! O, t) u( V, y

8 S8 Q- e1 U& C9 P" Q所以说在这样一个飞速变化的时代,我们必须快速地响应用户的变化,这无关于产品的形态,也无关于产品体量,我们都要快速高质量的交付价值,所以这点上来说DevOps对于Android同样是适用的。

9 O$ S: {  J# d3 y
+ U1 z% X  V* B! k. d, W5 Z
1.png
感谢社区和诸多先行者的不断努力,如今DevOps理念应该是非常普及了,相信每个人都可以阐述一些DevOps的优秀实践和思想。从工程效率团队的角度来说,我们更希望推进DevOps实践和思想的落地,而不是陷入一个沮丧的轮回。我们引入了四步工作法,来推动实践的改进,从发现问题,到引入一些理论体系,到方法实践,到持续改进,其实核心的思想我们可以在道和法的层面上想得很大,但是实际操作从小处着手,并且快速行动是非常重要的。
9 Y, Q2 I# X% J' |* o8 B. i, K
二、Android 研发工具链建设

/ v! B! {5 m% b1 V" j

! o  T; |+ S, e
接下来进入正题,Android研发工具链的建设。我会基于Android的一些产品特性,阐述我们对问题的一些实践解决方法。从标准化环境、代码管理、分支策略、持续交付、数据反馈、用户体验的内嵌六个方面来给大家做一个简单的分享。
1.png
2.1 标准化环境. c. b! _" n/ V& N6 [, {: u* b

7 p& `& E# K; C! K" f, @) n$ k8 q9 i
在进行Android开发的时候,多产品并行开发基本上是一个常态。还是举一个手机的例子,我们经常会在同一个时间发布高中低端多款产品,不同的产品基于不同的平台依赖的工具版本是千差万别的。所以开发经常要在多个环境和机器之间进行快速地切换,对环境一致性的问题就带来了非常大的挑战。为了解决这个的问题,我们在整个研发团队内部落地推行了基于Openstack的高性能虚拟机,把所需要的版本和环境进行了固化,统一维护并且在不同产品开发的时候自适应,研发无需关心具体工具环境版本问题,专注于核心创造价值的工作。同时高性能主机带来的编译效率提升,也大大加快了研发效率,跨地域网络的支持,也无缝对接出差,在家等异地办公的需求。. c7 H, ^  [5 A) [2 l0 A
" Z+ R& t* R) W5 I
1 ], q* v* i" V
1.png
简单看一下基础架构图,底层是基于乐视云的Openstack集群,提供基于Ceph的分布式存储,上层对用户开放了一些自助服务平台,包括资源申请回收,密码修改等,我们还在尝试一些基于云的IDE,通过自助化服务手段大大地减少了日常维护的复杂程度。

9 K- b. V, M7 Q8 v
2 P  {4 [7 z: h
与此同时我们提供了SSOT(Single Source of Truth)和Ansible,维护内部统一数据源,包括apt包,依赖仓库,工具等,并通过Ansible完成统一配置管理工作,保证所有人都可以从这个数据源拿到统一的数据。最后是监控,监控是非常重要的,通过监控我们能够完全了解整个虚拟机的使用情况,合理预估和分配资源,达到资源效能最大化。
& P, T4 s2 v7 h0 G" n
, J! r0 r# P. X6 U2 r6 o* Z
1.png
2.2 代码管理* q  {" h: O( |

2 h0 \4 {% ^# K2 _2 s6 [# }) c
在环境问题解决之后,第二步是代码的管理。在代码管理方面我们借鉴了很多Google的优秀实践,引入了Gerrit代码Review和托管平台,同时提供了偏社交类的Gitlab满足团队内部不同的业务场景对于一些实验级别和预研项目的开发需求。

. |* D. I; m8 \* W. \8 d6 j
) N. D  n6 X, k, f$ p" |6 z
Gerrit作为官方代码托管平台,除了可以和很多外部系统无缝对接之外,还有一个非常牛的地方,就是可以定制代码Review流程和准入条件,只有满足这些条件的代码才可以被合入,也保证了严格的质量门禁,同时这些条件可以灵活配置扩展,以满足不同业务需求。
: d( S3 `. {  ]% b1 U

; X1 m$ H/ ~- @) V另外一个挑战是随着公司的快速发展,不可避免的要解决全球化的代码共享的问题。我们基于Gerrit搭建了一个基于全球化高可用的技术架构。在北京数据中心会有一个主服务器集群,各地搭建slave分流下载,所有的提交都直接合入北京主服务器,并通过实时同步扩展到全球镜像之中。

$ J) x# O) K! t. [# o5 W9 F

9 n0 U: c  m1 t
众所周知,整个Android代码有几十G,通过分流下载可以减轻全球带宽的压力,并且镜像可以横向按需扩展,做到用户无感知的负载均衡。同时由于合理的代码架构拆分,以及持续集成所要求的频繁提交,单次提交的体积都不会太大,这样保证的数据的一致性考量。

# O# L0 q$ m- p; f7 q

- ]3 O: g+ l5 b( A3 [. V. e  S+ `# t
1.png
想实现这样的机制,可以深入四个方面来分析,这不仅仅是针对Android,对于其他的业务形态都有借鉴意义。首先是应用服务,

1 B6 ~7 O8 J! @  x3 T2 G+ q! z

/ p( c( J5 C6 y& i! A; }9 v+ v
Gerrit本身就是一个Web应用,根据云原生应用的十二法则,应用本身要做到无状态化,可以随时部署。第二是数据库,数据库中存放了很多的权限信息,可以通过Postgresql的hotstandby机制实现多点数据的实时共享。第三是Git,这就相当于数据文件,它是真正在后端存储代码库的地方,通过replication的插件可以做到多地实时代码共享。最后是配置,为了保证配置的一致性我们还是选择了Ansible来统一配置管理。当然随着企业的规模逐渐变大,这套东西还是可以继续扩展的,比如无状态的应用可以通过传统的负载均衡代理机制横向扩展,数据库方面可以采用独立部署,横向拆分以及sharding机制提升性能,数据层面采用分布式存储,同时即便没有replication插件,也可以通过简单的rsync+inotify或者DRBD的方式来实现同步,这些技术方案提升系统可用性的同时也无疑增加了复杂度,这个还是需要根据企业的实际情况来评估实施,核心是要保证业务的连续性和高可用。
% b( B0 [8 J) b7 c' y! j
- R2 S. m! P2 F8 x/ w8 J  o
1.png
刚才也提到对于分布式架构有一个非常重要的点,就是数据一致性的考量。我们搭建了监控系统,收集每一次的同步数据延迟,这么做有两点非常重要的参考价值,

* O3 R, |, L* u5 N! @( K* Z

- k& e/ U5 A* a* E0 y9 ]
第一点,通过这个监控我可以非常清楚的知道,代码同步需要多少的带宽。因为全球化专线是非常稀缺的资源,为了让带宽使用足够有效,可以通过这个监控了解实际使用带宽水平,合理申请分配。
: R9 r% s- o' o# {* I
$ g; V  V# `; {! b; O* U
第二点,通过散点图,可以找到偏离平均水平的点,分析造成这些点的原因,到底是我们代码架构拆分得不够彻底,还是进行了一些特殊操作导致了这个问题,这些都是值得深挖并持续反馈改进工作的要点,所以我们需要这样一些手段,依托监控数据整合分析作为参考,然后提供业务决策。

, e# {0 x7 c" @4 e/ [
; e: O0 j. e# h6 k; p" C

" }. j; x9 n" _3 U

3 ?5 K: Z+ I% }: f( E" ~
1.png
2.3 分支策略

+ L0 D4 f8 L& ?! w, w: v

/ x* }5 [; y3 U! }0 w2 E
解决了这些问题之后,最重要的一点是分支策略。很多时候大家都在谈持续集成,持续交付,其实我认为整个代码的分支策略实际上间接的体现了公司研发团队的工作方法,协同开发能力,以及公司的交付模式。

; O8 `( Z' p- v/ `' ]+ [

5 [, C+ h4 g% Q% Z! h/ t) k' D
所以在谈后续问题之前我想先聊一下分支策略,我们公司其实采用的也是基于主干开发的分支策略。在几年前老板曾经喊出一个口号叫周周更新,其实周周更新就是基于主干开发分支策略满足业务需求的很好案例。

. _: R& g) W% p6 W& l; h7 t

# X6 k7 A3 X8 ]/ s
我们会每周会基于主干拉出下一周的发布分支,并在分支上进行测试稳定,同时主干继续迭代下一个版本的需求,这就体现了主干开发的优势。当然主干开发虽然看起来很简单,真正要做到主干开发还是要通过三个手段来保证,分为工程手段和管理手段、技术手段,实现这三点才可能完成主干开发的工作。

0 d! _0 A) F* N( U! |& o  s
$ L- O! ]+ h* `/ I0 j4 f/ R
1.png
首先是工程手段,主干开发最重要的就是保证主干质量,主干质量好的话分支质量也不会差到哪去,如果主干质量不好的话,分支质量也一定不会好。所以可以通过一些工程手段,比如质量门禁,定时构建,持续集成,自动化测试,代码审查等来提升主干质量信心。如果抛弃这些工程手段,放任主干质量的话,主干开发的分支策略是无法很好实施的,这会变相加深团队间的不信任和部门墙,进一步摧垮分支策略。

! t9 a6 x3 ~3 b+ T# n& c7 [$ B* n, F

1 y+ U7 U( c5 c! }/ @0 s/ z: b
其次是管理手段,在项目管理层面的上会协调什么时候需要核入一些feature,什么时候专注Bug修复,这样有节奏的迭代演进,一方面保证了测试的可控,另外一方面也保证了功能合入的可控,这就是管理手段的作用;
% S) _$ {1 j2 D, E( O

1 F/ z1 Y. o- e; n: D; ^% h
最后是技术手段,基于主干开发,很多未完成或者尚未成熟到正式发布的功能也会进入主干代码。这里就可以用到一些比如特性开关,运行时策略,抽象分支等手段。在Android里面提供了一个很好的方法,就是通过权限的方法做的管理,对我们应用来说,我们把所有feature都定义成xml文件,在Android启动时通过PMS去加载这样一些xml的文件,实现了feature的动态激活。对于特性开关,很重要的一点是需要定期清理,如果不定期清理的话会对代码复杂度带来了很大的问题。每加一个特性开关在测试代码覆盖率的时候就要多一份工作。所以虽然特性开关是很好的东西,但是还是要定期清理。

2 W5 k4 {; c5 ]; Z7 j8 F

4 t; t* S/ g" _7 ~9 b
接下来是多分支管理的思路,正如之前提到Android多产品的研发实际上是一种常态,研发经常会在多个产品中并行开发,并在在多条分支中移植代码。从精益思想来说,这样的代码移植工作并不是增值的活动,如果要加大增值活动的占比,就要大大减少这些不增值的活动。为了解决这些问题,可以提供四个手段作为参考。

; I" ]: P( M  G0 J- o9 Q' r

9 ?2 y% u: Q( |+ q
1.png
第一个就是代码的继承,其实这个很好理解,通过一些配置来保证在不同产品线之间复用一套代码,做一次改动在不同的地方同时生效。这个有利有弊,好处就是最大程度上代码重用,但问题是如果复用代码有问题,所有的产品都会受到影响。
1 ]  Q2 |* y5 X* f% A4 }- F/ D# o

2 v4 b( m0 l) p2 o第二就是自动检查,我们会检查主干和分支上的一些差异,导出并提供项目管理团队review,这样可以看出哪些必要的提交遗漏,又有哪些多余的提交引入,从代码层面反推需求管理。

5 ?4 M: l* ?' K
' {( V- `5 q2 }: u
第三就是自动提示,有的时候由于复杂的代码线复用策略,研发并不清楚修改一处代码的影响会有多大。为了让大家了解这个信息,在每次代码提交到Gerrit的时候,都会自动分析这个提交会影响接下来的哪个产品的发布版本,把这样的信息作为代码review的备注添加到平台上供研发参考,这样就可以知道每次改动的影响范围,做一些针对性的测试。

( N+ t& ~: G" r  n

* D, i2 G% m. w# j最后是自动合并,对于Android来说,虽然是开源系统,但是还是有很多强制性的规则,比如Google会要求我们定期合并这些安全的补丁,如何高效合并这些安全补丁,最好是自动去做,所以我们做了很多的自动工具去做这些事情,只有在出现冲突等需要研发手动接入的时候才会通知相关人员。

; ?! ?7 `8 g" T% x" M2 ~
. `. e% \2 _+ d6 X( M& |7 @
2.4 持续交付流水
; o8 o2 `( y* e/ N# M* t" I# D( M& v) L" Z, Z
接下来是持续交付流水线,我们开发了很多的相关工具帮助我们达到非常高效的持续交付。我这里简单地介绍三个工具。
) p9 S! x6 L) m) }! ^
; t% r: y% ?3 d- k  H1 u( |! y
第一个是Preflight打通代码提交到持续集成,

# n' G7 z( P6 r0 U! V" o& V  v
3 Y# E* G4 w( H& `; `
第二个是Build-Test-Promotion打通编译和自动化测试,

! j0 {3 q4 G- E' Y) j
! P- {. q9 r) F1 x
第三个是CDN+OTA打通自动化发布和部署。

3 n% W2 v/ q4 c; \2 p# b( {/ f3 }: E

* p7 h- b1 w$ l* y& t
1.png
先说Preflight工具,Android的持续集成其实有两大挑战:

% n6 i7 R: D  H% K9 g0 z* `  a

0 X8 I  f; x# U/ G
第一大挑战就是多模块的依赖。因为Android是一个系统,分为很多上下层的依赖,很多东西是需要同时合入才可以生效的。

) o6 B8 A5 }/ T* M
7 l7 r' ^: A0 D! _* Q# q$ t1 _
第二点就是编译的时间,因为Android的体量,即便编译集群性能再强,也需要很长的编译时间。做持续集成的一个重要需求就是快速的反馈,如果单次集成的反馈时间非常长的话其实是很难接受的。
- ^$ Y# X1 [1 U" O3 U9 q

/ t. r# [- c  t) ?* A2 l( S, c
对于第一个问题,我们就利用了Gerrit的自定义Review label功能,研发完成代码修改和本地验证后,将patch提交代码平台,在平台上会有一个特殊label用于标示这个patch已经准备好进入持续集成队列,后台就根据这样的label抓取符合条件的patch去做自动化编译测试,这样就减少了由于依赖问题导致的影响。
& r/ o" o* D1 a- H( J
7 w/ r, _& X; `+ C! ~$ T, t! S
1.png
关于怎么解决编译速度的问题,我们做了很多的努力。最重要的一点,就是根据测试分级的思路做了一个编译分级。从下往上看,第一个是系统级,系统级编译会基于全新的工作目录完整编译各个组件,这个过程消耗的时间最多。
  W& X5 u& d" U- r0 ^3 ]0 v
+ d8 `1 _. M5 O. @5 m
再往上是组件级,将Android系统按照大的组件划分,比如kernel,中间层等,由于各个组件独立性,不改变的地方是可以不编译的,直接复用前一次的二进制结果。再往上是模块级,主要涉及到一些上层应用,对于应用可独立编译交付。

' }0 T4 e/ S# c; h$ }
4 C9 W" |: U: |' k# W
整体来看自下而上反馈周期越来越快,从上而下可靠性越来越高。这样通过编译分级,在持续交付的流水线上根据不同的情况来用使用不同的方法,加快反馈周期。

$ u: m7 A4 e' O& L( {  \

; v. g' ?0 i$ u/ i* ~$ w
1.png
Build+Test+Promotion,通过对主线进行持续的版本编译,并且每次编译成功后都会触发自动化测试,从而将质量内建,测试左移,从而持续监控主线质量。这里的自动化测试类似于冒烟测试,只是为了验证核心功能可用,为了保证用例的严谨和快速反馈,我们对这个阶段的测试case进行了限定,原则上冒烟测试失败的版本不满足进一步系统测试,用户验收测试条件的,这样就将严重问题尽早暴露,而不是轻易放过从而影响后续团队的工作。在这个过程的问题,会自动上报bug系统追踪分析,并对研发团队进行红灯预警。通过这样一些手段就帮助我们把整个自动化测试的能力嵌入到了持续交付流水线里面,保证了随时有可交付的版本。
  f6 j- l5 J/ [1 K  ^
3 G. D$ T. {2 W* `
1.png
最后就是CDN+OTA,因为Android软件版本需要通过云端推送升级。为了简化后端运维人员部署分发工作,每次编译测试成功的版本会自动上传到CDN节点上,通过乐视云的基础设施做全球分发。之后把CDN下载地址注册到OTA系统,这个OTA系统就是我们的发布的平台。
/ k, ]# ^/ y% N3 r
- L/ ^) W1 b2 p6 Z, |; y1 p0 t
整个过程采用异步处理机制,可以无人值守自动完成。在此基础上根据预设的策略和上传版本类型,实现自动化版本推送,人工灰度升级等,打通了整个版本上线发布的环节。
9 R( \9 z3 m. _
) S" m! P0 y7 d! {; D1 q# e
# g7 t- f, e- }9 a
1.png
2.5 数据反馈6 E$ _6 G7 A0 _7 g! ]

8 k  f4 o  i) e# J! b
接下来是第五点,数据有效反馈。做持续集成最重要的一点就是快速反馈,但是我认为快速反馈是不够的,我们要做到的是快速且有效地反馈。
. V$ g* B$ _( P1 D! _" }. Y& f

, b1 A% z1 g; b
Martin Flower曾经提到过检验持续集成的三个问题,其中最后一个流水线出现红灯失败是否能在10分钟内修复是最难实现的,那么问题究竟出在哪里呢?
  G2 w7 z0 I. @
& h8 |+ [3 S( x
这里举一个案例,我们之前经常会遇到编译错误的问题,那么我们是怎么做的呢?发一封大邮件给所有人,过几个小时发现没有人管,流水线不断的红灯,这个时候我们就会有人查这个问题的日志,找到是谁的修改引入的问题,然后去催这个人尽快修复,并且手动把错误邮件转发给他,每次问题修复的成本都非常的高。
' z+ y) [7 }" {7 d

5 N+ ^7 F) F; d6 D! O9 I3 c6 {
虽然最开始就反馈了问题,但是这个反馈我们认为不是有效的。不断出现的问题也造成了团队内部的抱怨和不信任感,比如PM会埋怨没有尽快地解决这个问题,研发说我可能没有发现这个问题,测试说没有版本可以验证等等。那怎么做到数据的有效反馈?我们就在反思这里到底是组织文化的问题还是工程手段的问题?5 V- a' |. q9 U2 Q5 I8 a, s- U

- O' @- J0 R- f- e% x, g' h! i

1 |& c% q4 g( D+ i% U
1.png
于是我们从工程手段进行了一些改进,反思过去人工定位错误的方法,自动化编译错误场景分析。当持续集成足够快的时候,每次小批量的改进不会引入太多问题。这样如果发生了编译失败我们会根据既定的一些pattern去匹配错误日志,同时对比每次提交的人员的信息,找到潜在的问题责任人之后会给这个人单独发一封邮件,通知到他你的commit导致主线红灯,请你尽快解决。

" o; I) G& R: Q& k9 x) H

$ [, |5 Y% l5 B: o
这样就减小了我们批量发送的需求,而是精确地发送邮件,对于研发来说这样通知的更加有效。之前群发邮件的方式,可能90%都跟大多数人没有关系,于是大家会倾向于过滤这样的邮件,即便收到了也不会引起重视,于是问题就越发不会及时响应。

( d* @, N( A0 c7 L: O5 |) Z

0 Y0 k7 g4 S0 ?  Z/ O) |
在更换了策略之后,即便通知可能出现误报,当研发把这个问题反馈上来的时候,我们可以共同分析改进工具识别逻辑,保证下一次类似问题可以正确识别,这样使得工具的命中率不断提高,通知的可信度也越来越强,这样下一次出现问题的时候,责任人就会及时响应,从而改进整体的效率。所以有效通知就意味着在正确的时间,将正确的信息通知到正确的人。
) b4 o9 t; \) V: U8 Z( |  |' U8 Z
; m5 u) |( Z* Y3 U5 _& p
到底是文化的问题还是其他的问题?很有可能文化是表象,在上面的案例中我们通过工程手段改变行为,进而快速响应的文化也就自然而然地浮现出来,不需要强制在什么时间点解决问题,大家会自觉的遵守这样一种约定。而这正是通过行为的改变来引导文化的改变的一个很好的案例。' x9 T' [7 v" O, z

6 ]) Z, \' W! r1 B" n; `
' j5 U) ?) Z/ g: _, J# X) a
1.png
通过一些度量机制我们会统计错误类型的分布和趋势图,在处理度量数据的时候需要格外谨慎。实际上我们并非要通过统计数据来针对某个团队,说这个团队出现了最多的问题,而是想换一个思路,看看什么样的问题出现的最多。每个问题类型实际上对应了研发的场景和模式,我们把这个信息反馈给研发,他们在后续开发和代码Review中可以关注到这个问题,通过各种的方法的迭代帮助我们整个产品质量的不断提升。
3 U6 _6 A# r0 S6 U* ^  S) t( `( `
) e+ R, e7 ?& D, f
9 J, ~  Y: p% e6 s
2.6 内嵌用户体验/ F! X  Y( }) m( Z! J% h0 w

: ~! X( ~! L8 d! t
第六点,内嵌用户体验。对于手机产品来说,对用户体验和产品质量的要求其实有的时候会更高一些。大家都知道三星的例子,去年三星手机爆炸的事件,可以用三个2来总结:两个月两千万的设备两百亿美元的损失,对于普通的公司来说这样的损失没有机会承受第二次。

9 p6 Y( Y1 T+ p/ ]

, S- j4 D; t2 s1 g) v  A7 j5 H. A
所以为了保证产品体验和安全可以达到标准的水平,我们把整个用户体验的指标也纳入自动化测试的一环,然后加入持续交付流水线里面,这样可以保证每次版本发布的时候用户体验指标并没有比之前下降,而这就反应了我们对待质量的不妥协。通过细化的测试数据,也可以知道到底是哪个模块跨越红线,是不是有一些问题导致了用户体验的下降。这点实际上是需要不断地持续反馈更新才能保证我们整个产品体验的上升。
7 e& R  m( x- A  p2 J: P
# M, l3 t0 }3 {, ]4 ^' z4 W
1.png
最后给大家看一下我们整个技术的全景图,对于我们这样一些从事工程效率改进的同学来说缺的从来不是工程实践,而是一双敏锐发现问题的眼睛。对于整个技术全景图来说最下层是研发基础设施,再上面是核心能力,再往上就是工具层面,通过标准的接口对外开放平台和服务,核心还是效率和质量的平衡,以及对精益的追求,这就是指导我们做研发工程效率改进和内部DevOps系统的思路。

0 e* n6 v, ]+ f" f# q" D# j

2 |8 f# K: M% |& x! [" A
1.png
1 d" J/ w0 T9 s3 W' ?
* x, O9 v: \; S6 l* {+ \) W

( z& ^! q( O  ]$ Z2 z' ~! {
9 G/ U5 I# n# e# c4 `5 q0 ]
1 o# L: U; q# `+ T2 s' Y6 a3 T
9 d4 ?6 ^/ i) _1 v2 R, l* I
三、CI架构的演进
" A/ g  r0 ]) Y6 w- P1 C
& L! ~3 x# M2 `) M
接下来我想给大家分享一个案例,还记得最开始提到的四步工作法吗,

9 H  E% x' h9 s1 x  n6 ]$ U8 m% k. I3 `
! s6 b) l! N$ C* _' P3 G) _$ p9 ]
第一步是发现问题,

: N' Y, ^2 G; h& c

  O' f- c1 c1 [5 {) Q  c
第二步是引入一些理论体系,
  ]/ _( `  i! I7 A" |1 d
6 @+ b& V% D4 d% I9 N2 {2 V7 r6 w7 B
第三步是做一些真正的实践,

: Q: M# w# C6 ~  F9 M, F

3 }' r$ J  g; M6 c3 ?
第四步是持续的改进。

# p- w7 o5 d  R* a% \! i( _

& h1 H% D9 P3 q: v# f+ s" Y
这里面我们就想把整个Android容器化编译资源编排的实践分享给大家。
+ n; M) T2 |: ~* }# ]* G$ A

" Z! g- O$ K% @( P6 a& u为什么会有这样的需求?所有的改进都是来源于问题,这个问题越痛改进的动力就越大。那么我们所面临主要就是三大问题。
8 Y6 E7 |. x8 |" p) A

5 h( ^' ^2 J: F! s; e! \( W8 U; C
第一,历史设备的多样性。一个公司都会经过由小及大的发展过程,在每一个阶段所采购的设备性能,配置,数量都是参差不齐的。当规模足够大的时候,会发现手里可用的资源高矮胖瘦各不相同,于是如何有效的管理这些差异化资源就成了大问题。
4 k9 p0 A! b' [2 w- e0 h! d+ A

5 y5 \" A0 I0 X6 _第二,业务环境的差异。每一个Android的产品所依赖的工具环境都是不一样的,如果在同一台主机上同时做不同产品的编译时,往往会导致环境的冲突和潜在的问题。

7 x9 x* N" L+ t; l0 _- d5 M

# g, R2 q1 Y" u. v5 C6 o* l第三,资源收缩的预期,由于公司遇到的客观困难,对于整个资源会有一些收缩。当我们面对一些潜在的改进项目的时候,如果资源是非常充足的,往往是没有动力做这样的改进的。所以有的时候只有业务的需求和资源的不匹配才是技术实践落地的推动力,虽然谁也不想这么纠结,但从好的方面来看,这正是一个展现工程效率非常好的机会。

. z$ @# r/ u0 b: D( A
( Z6 E/ k* A# ]; v7 H9 c# r. E% _
1.png
问题分析清楚了,那怎么做来做?

$ h& ^& D- v+ j1 _, J# C) Q: R

6 B# Z4 E) i, k+ F4 {
首先引入理论实践,包括不可变基础设施,基础设施及代码,通过精益消除浪费的思想和JIT拉动式生产系统牵引。

* r; K% @1 U/ F, _8 {

, m& k6 v0 ?5 a7 c# a* f) ]
核心目标是做到标准化,容器化,无状态化和资源的灵活调用。当面对一个全新的东西,第一步要做的就是验证可行性,通过大量的数据对比验证,我们认为容器化编译和主机编译的性能基本一致,也只有客观数据佐证,增加了继续去开展后续技术调研和工程实践的信心。所以在这点上,需要提醒大家的是,很多的工程实践看起来很好,但不能盲目上线,需要做很多的验证来匹配业务场景,对于这样的技术手段是不是适用。
3 M! `/ x3 K' v  W( P0 q- y0 g6 @5 ^
) h. E1 `" ~6 L! \
1.png
接下来谈一下CI架构的演进。最开始常见的做法是,在Jenkins上挂载很多的节点,同时把Job直接绑定到这些节点,后续随着资源充足可能会建一些label,然后把Job和label关联做到一定程度的资源池调用。这么做的结果是什么样的呢?就是所谓闲的闲死,忙的忙死,上面一大堆任务在排队,下面反而很多空闲的资源。这样就带来了很多的问题,第一是资源有效利用的问题,这个显而易见。第二是环境的问题,因为每台主机为了满足指定业务需求都会有特殊的工具和环境。即便业务调整需要把资源分配到其他业务,还是需要大量的配置成本,回炉重造之后才能上线。可是我们需要的是对业务需求的灵活响应,这么做显然也是没法满足需求的,于是投入大量人力在这里面。

) s) B8 e0 A1 w1 V- T$ j  z
% q4 z* ~1 P" `: J' K6 p
虽然这并非一种优雅的CI管理方式,但遗憾的是长久以来我们都是这么做的,直到有一天发现没有资源了,才被逼着做出改变,这也是为什么说资源不足才是推动工程实践快速落地的因素之一。
2 h. t4 N) R- |) \/ k2 b

& Y6 A! G9 g3 `/ T" ^1 _* b" m

) ^" z$ x/ q/ n- e: y
1.png
改进的思路就是容器化,通过容器对环境固化和隔离,使得每一个业务环境都是标准化的,而且可以随意在任何标准主机上启动和结束,同时即便多个不同业务跑在相同主机上,也不会出现资源和环境的冲突,大大减少了对于主机自身环境的要求和限制。但是容器化只解决了上述的问题之一,对于资源有效利用和调度来说,docker本身无能为力。我们依然要小心翼翼的将job绑定的拥有充足资源的主机上面,还要应对随时可能发生的资源不足的问题。0 P* ^5 ]2 _$ P; N  |( b* ]  V

; O' ~8 z8 H: e. ?& F2 q

5 S. U) Z8 L  N7 m1 N
1.png
于是更进一步我们引入了容器调度平台,在评估了DCOS和K8S方案之后,最终选择了K8S的方案。K8S作为容器调度平台,将所有资源抽象化,可以按需创建Pod,并根据资源需求自动管理Pod和主机的对应关系。Pod通过JNLP协议反向注册到Jenkins上面实现了节点的动态生命周期管理。这样我们就无需关注各个主机本身的性能配置,将编排工作交由K8S代理,保证所有资源都是透明的,并为我所用。) |& ?1 @  ^- Z( \' o% w

' M! {+ \, y( ^9 w1 ]0 G9 T

- Q! ^* h( i% K3 P8 P
1.png
我们再稍微扩展一下,引入Harbor做镜像管理平台,相对于传统的registry来说,Harbor提供了用户权限和高可用机制,也作为研发统一数据源SSOT之一纳入研发工具链中,对外提供标准服务。同时考虑编译加速,使用Ceph的分布式存储方案,共享代码镜像和编译缓存来加速整个集群的编译性能。同时通过设置合理的监控手段来看整个集群资源调度的利用率和实际的资源使用率,在利用率和使用率达到一种动态自平衡,合理地规划每个Pod分配的资源数量。
& J* I2 W$ j) [# i# E: X2 h8 l; z

+ g8 v9 }, d4 y

% @5 H7 Y# p  ]0 A( f/ g% O) U
1.png
从结果来看,通过以上改进提升了资源利用率,减少了资源的成本,同时极大的加快了新产品上线环境准备的速度。其实很多时候后端研发基础设施平台改进所节省的成本,不一定比前端新业务带来的收入要少,而且由于没有额外投入,这样的改进更加轻量级。
' w& }" T) L% |6 j

1 P3 K6 Y8 ~: {. K; k0 o! V
通过这样的结果也可以更好的说服领导层认可后续工程效率业务改进,投入更多的资源,因为在DevOps年度状态报告中提及的一样,领导层的支持是业务改进的强大动力,在复杂的业务场景和组织架构下往往是必不可少的。

$ k% O1 l: N& J8 z

: d4 [  X9 u+ |, O0 \( l6 b6 U不要停下持续改进的脚步,我们希望达到零缺陷、百分之百的价值创造,极致的工程效率水平,这更多是一种理想。从一个工程效率的团队的使命来说,我们所追求的就是对任何浪费的不妥协,这就是我们存在的一个核心原则,也是来源于精益的思想。接下来我们想去做更多的尝试和挑战,无论是技术架构还是组织架构方面。
% }; u2 g5 I0 ]- ?8 a+ U/ m
1 a3 k% `% n3 j0 X! B' E

/ z6 @/ I' w& L: z
第一个就是容器化,利用容器化技术实现jenkins master自身的高可用和无状态化。
& W  B+ K( s) S! P
9 W8 r7 [, Y2 S0 s6 p9 d9 Z! e
第二个就是脚本化,引入配置中心,通过配置中心和Jenkins模板动态生成job。
4 D' I# Q) |) \6 v& L
1 z# X2 X  y$ X& j! Q
第三个就是可视化,让Jenkins聚焦于可视化流水线平台,让流水线驱动持续交付。
% r. a+ x) x  a/ {

# |/ G, n6 Q) W7 v2 l, W! f3 [
1.png
同时有一个非常重要的点,在刚才我们的图里面K8S是一个单点的,所有的单点都意味着不可靠。这里面还有一个非常重要的改进,所有单点的系统实际上都是需要高可用机制,无论Harbor还是K8S,当你在引用一些新技术的时候这些技术可能不够成熟,他的可用性决定了对外服务的效率。对这些核心业务的高可用投入一定不能轻易放弃。

+ @* }, V& u5 c1 j* Q

. m" e6 \& P; }+ o
原创:石雪峰

% D5 C; l6 D4 q+ v% [* \) |
: _5 H- w  I! W" g' {( Q( m. K+ C
1.png

本版积分规则

选择云运维时代的王牌讲师-长河老师,助你轻松入门ITIL Foundation培训课程

QQ|小黑屋|手机版|Archiver|艾拓先锋网 ( 粤ICP备11099876号-1|网站地图

Baidu

GMT+8, 2019-1-17 11:14 , Processed in 0.228891 second(s), 31 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表