编辑推荐: |
主要是介绍了杏仁怎么应对这些挑战的,以及容器又可以带来什么?怎么使用容器和容器编排来优化这些问题的
本文来自于企鹅杏仁技术站,由火龙果软件Anna编辑、推荐。 |
|
容器化之前
1. 创业公司的技术挑战
托尔斯泰说:“幸福的家庭都是相同的,不幸的家庭各有各的不幸。”互联网创业公司也一样。大部分互联网创业公司,都会碰到以下几个技术挑战。
如何快速、低成本的搭建系统,同时确保安全稳定?
如何快速的构建和发布应用,满足业务需求?
如何提高团队开发效率,确保开发质量?
这个列表肯定不完整,但这三个应该是创业公司技术团队都会面临的共通的问题。当然杏仁不能说完全解决了这几个问题,但还是取得了一些进展。我们接下来简单介绍下,我们杏仁是怎么应对这些挑战的,以及容器又可以带来什么?
介绍容器化之前,先来说一下杏仁技术架构的发展历史。接着介绍容器以及杏仁的容器化方案
2. 杏仁早期
在 2012 年以前,大部分互联网公司包括创业公司,都是直接购买服务器,租用 IDC 机房的机架部署的。应用是直接运行在物理机上的,要扩展必须购买新服务器。IDC
经常出各种故障,如果碰到 IDC 迁移的话,就更痛苦,必须半夜搬机器,天亮前上线。总之对创业公司的成本、服务稳定性、工作效率都是有很大的消耗。
不过杏仁医生很幸运,正好赶上了公有云的成熟,所以一开始就是基于公有云搭建的。杏仁医生最早期的架构如下:
这个架构非常简单,其中负载平衡、数据库都是基于腾讯云的。然后腾讯云也提供了一些基础的监控、告警和安全服务。然后就是两个应用,一个移动后端
API,一个运营平台,都是基于 Play 的 Scala 应用。
很多人可能会好奇为什么选择 Scala/Play 进行开发,毕竟 Scala 在国内应该用的不多。这里一方面因为杏仁医生是继承了看处方的架构,当初看处方就是基于
Scala/Play 开发的, 团队对这一套方案比较熟悉。我们需要快速的构建杏仁医生,自然就会选择最熟悉的语言和框架。而且对于中小规模的应用,Scala/Play
的开发效率的确非常高。Scala 本身的表达能力非常强,是一门很有意思的语言。很多好学的工程师,也会对新的语言也会比较感兴趣。
3. 应用拆分和CI/CD
经过一年多快速演进,整个应用越来越庞杂。所以我们对应用进行了拆分,并且随着业务扩张,应用也越来越多,例如
HIS、CRM 等。所以我们的架构变成了这个样子。
这时 Scala 最大的问题开始体现出来了,那就是编译速度的问题。那时候我们的应用部署方式也很原始,必须登陆服务器运行一个
Shell 脚本,它会拉取代码,然后编译、打包、运行,整个过程需要耗费5~10分钟。而我们 API
应用的节点后来增加到 5、6 台,即使两台同时发布,也需要 20 分钟才能全部发布完成。如果发布后出了问题,那就吐血了,因为回滚也是一样的流程,又需要
20 分钟。
有一次我们做了一个送 Apple Watch 的活动,半夜 12 点开始。我们出了个很低级的 BUG,活动一开始就蹭蹭蹭的一分钟送好几个
Apple Watch。我们创业公司也没多少钱,每一个都是白花花的银子,心痛啊。修复很简单,但发布或者回滚都得先编译,太慢了,于是我们一狠心把服务器给停了,几分钟后才部署上了新的代码。
这是我们觉得必须要有一个自动化的发布系统了。其实在几年以前,发布都是需要运维执行的,研发提交给运维,运维手动部署。那自然发布不可能很频繁,并且对开发和运维都是很大的负担。但渐渐的敏捷和
Devops 的文化成为主流,持续集成和发布(CI/CD)成为一项基础设施。
我们第一版 CI/CD 很简单,是基于 Jenkins 的,通过脚本进行编译、打包,然后拷贝到服务器上发布。因为只要打包一次即可,缓解了部署慢的问题。但还是存在几个问题。
首先,没有应用仓库。打包是一次性的,部署的时候会备份当前应用目录,用于回滚,所以只能回滚到上一个版本。
其次,健康检比较简单,只能检测应用是否启动。我们遇到过应用启动了,测活也没问题,但服务还是有严重问题、基本不可用的情况。
最后,不支持灰度发布,出问题只能回滚。
期间我们有一次较大的故障,也是因为这几个因素,花了很长时间才恢复。痛定思痛,于是我们又开发了 Frigate
发布系统,它的架构大致如下图。
Frigate 有一个应用仓库,即 App Repository。应用仓库会保存发布的应用版本,回滚的时候可以指定版本。
Watcher 组建实现了比较强大的应用检测功能。除了一般的 HTTP 检测,还可以从日志、监控里获取数据,可以根据异常数、错误率等进行进一步的健康检测。
Frigate 支持分组和分阶段发布。例如现发布2台机器,然后健康检查,或者中间可以有一些人工检查,然后再发布剩余的机器。
后来回头看,Frigate 虽然没有使用容器,但其实是实现了容器编排的很多功能。Frigate 发布的截图如下,这是基于
Jenkins Pipeline 的。
4. 微服务化
系统多了,依赖复杂、数据没有隔离、逻辑重复,接下来一个必然的方向就是微服务。关于微服务,这里就简单介绍一下。
我们的服务注册和发现是基于 Consul 的,负载平衡是通过 Nginx 实现的。下图是整个服务注册和发现的过程:
有几点是值得一提的。
首先,我们的微服务是基于 HTTP 和 Json 的,没有采用二进制的协议如 Protobuf、Thrift
等。其实 HTTP 和二进制协议的性能差别,并没有很多人想的那么大,一般也就2、3倍的差距(没有亲测)。对大部分企业,这个差别根本就不是瓶颈,特别是现在还有
HTTP2。如果真的有需要,还可以在 HTTP2 上跑二进制协议,通过框架在服务端和客户端加一层就可以实现。
其次,我们的微服务对应用是无侵入的。我们没有采用常见的 Dubbo、SpringCloud 框架。一方面我们服务调用方有
Java 应用也有 Scala 应用,要接入还是要花点功夫。另一方面,我们认为微服务框架发展的未来方向是非侵入性的独立的微服务基础设施层。其实这和容器编排的理念是一致的,并且最近提出的
Service Mesh 概念,就是进一步的延伸,我们认为这才是微服务的未来。
最后,我们每个微服务都会生成一个 SDK,便于调用方调用。SDK 集成了熔断、异步、分布式追逐(开发中)等功能。
搭建了微服务基础框架后,我们开发了好几个微服务,有业务的例如订单、预约等,有基础设施的例如推送、短信等。当然其实有些并不算“微”。
但是我们发现,整个体系依然存在不少问题
基于云服务,成本低了,效率高了。但运维还是面向资源的,并且资源利用率不高。
有了持续集成和部署的能力。但新增节点、新建服务等,依然需要大量人工运维,并且扩展并不方便。
实践微服务,改进了应用架构。但依赖管理、监控等尚未完善,稳定性仍然不够。
容器化
1. 容器是什么?
接下来 我们就来谈谈容器。
2013 年 Docker 横空出世,到 2015 年已经渐渐进入大家的视野。容器当然不一定是 Docker,而且容器现在也是有标准的。但一说容器大家肯定会想到
Docker。所以我们这里说的容器,主要就是指 Docker。
容器到底是什么呢?顾名思义,容器就是用来装东西的。在这里它用来装的就是应用程序。容器的特点简单说就那么四点:
容器是自包含的,它打包了应用程序及其所有依赖,可以直接运行。以前应用程序的依赖管理一直是个大问题,即使像
RPM 、Maven、Ansible 等都能解决一部分问题,但并没有一个所有应用程序通用的标准机制,直到容器出现。
容器是可移植的,可以在几乎任何地方以相同的方式运行。这就可以确保应用在开发环境、测试环境、生产环境等都有完全一样的运行环境。
容器是互相隔离的,同一主机上运行的多个容器,不会互相影响。即一个容器中运行的应用程序,是访问不到其他容器的资源的(进程、网络、文件、用户等),除非配置为共享的资源。
容器是轻量级的,体现在容器的秒级启动,并且占用资源很少。
容器能做的很多事情,虚拟机也能做,那它们有什么区别呢?下面这张图是 Docker 官网的截图,很好的说明了两者的区别。
但最根本的差别,其实就是最后一点:轻量。很多人可能觉得这只是一个简单的差别,但其实不是。因为就是这一点使得容器可以成为一种
标准化的应用发布方式。
上个世纪 5、60 年代集装箱刚出现,看上去也只是简单的差别,也没有什么技术含量。但集装箱提供了一个标准化的物流方式,全球的海陆空运输、码头装卸等围绕集装箱形成了整个一个高效的物流体系。最终改变了世界贸易,促成了全球化。
所以容器这个标准化的应用发布方式,最终会影响上层的整个应用架构。最终围绕容器,会建立一套完整应用架构体系,带来革命性的改变。现在其实已经可以看到一点端倪了,Kubernetes
基本已经成为标准,不久前 Google 还发布了 Istio 这个 Service Mesh 工具,进一步把微服务的基础架构也抽象了出来。
2. 容器编排是什么?
光有能装应用的容器还不够,如果还是人工管理那么多容器,那也发挥不出容器的优势。所以我们需要一个容器编排系统。容器编排能提供以下功能:
应用调度:应用部署、无缝升级、弹性扩展、自愈等。
资源管理:内存、CPU、存储空间、网络等。
服务管理:命名空间、负载均衡、健康检查等。
以及很多其他功能,如日志、监控、认证、授权等。
容器编排领域最主要的三个系统是 Docker Swarm、Kubernetes 以及 Marathon/Mesos。
Swarm 是 Docker 官方的方案,优点就是简单,缺点是太简单了。
然后是 Google 的 Kubernetes,也叫 K8s。Kubernetes 最近一年大放光彩,几乎统治了容器编排领域,就连
Docker 官方不久前也宣布了支持 Kubernetes 。它的优势就是有大厂支持,而且 Google
是把它作为战略来布局的,你可以把它想象成当年的 Android;它的社区也非常火爆。
技术上,Kubernetes 是一个集成的方案,设计非常优秀,可以说是分布式系统的设计典范,Google
在这方面毕竟有很深入的经验。缺点就是有点复杂,而且在今年之前它还是存在不少问题,包括性能问题、大版本的兼容性、部署复杂等,当然现在已经基本解决了。
Mesos 在 Docker 之前就有了,本身做的是分布式系统的资源管理,Mesos 很灵活,上面可以支持各种系统,包括
Spark 等。Marathon 则是基于 Mesos 实现了编排的功能。
我们是去年年中考虑容器化的,我们最后选择的方案是 Marathon/Mesos。原因一方面是之前
Jenkins 容器化已经用到了 Marathon/Mesos,有些经验。另一方面是该方案便于和当前的架构整合。Kubernetes
太过复杂,迁移的话,对架构改动太大。
3. 杏仁的容器化
我们容器化之后的架构是这样的:
所有的应用都以容器的方式运行在 Mesos Slave 上,Mesos Master 统一管理 Mesos
Slave 服务器。Marathon 通过 Mesos 调度容器,进行发布、升级、扩容等。Calico
是 Docker 的网络解决方案,实现了一个容器一个 IP 以及容器之间的互联。而右上角部分,我们基本保留了我们之前的微服务架构,只是用于服务发现和注册的
Consul Agent 替换成了 Registrator。
同时我们的 CI/CD 也相应的做了调整。
Jenkins 自身现在也是基于容器的,会在 Mesos Slave 的容器里进行编译和打包。应用会被打包成的
Docker 镜像,上传到我们的镜像仓库 Harbor 里。部署时,Jenkins 调用 Marathon
的接口进行部署,Marathon 则从 Mesos 申请资源。部署时 Mesos 会从 Harbor
下载相应的应用镜像并根据配置运行。
有了这套系统,我们创建应用、扩展应用就很简单了。创建应用时首先通过 Dockerfile 和 Jenkins
创建镜像,然后在 Marathon 界面上,只需要准备一个 Json 配置(也可以通过 Form 配置),指定资源、实例数、镜像、网络、健康检查、环境变量等,就可以很快上线一个新应用。
有时候我们要准备一个秒杀活动或者推送几百万用户,需要增加应用实例,也只要在 Marathon 界面调整一个数字就可以了。
除了容器编排和 CI/CD,还有两个很基础的东西,一个是基于 ELK 的统一日志平台、另一个是基于
Open-Falcon、StatsD、Graphite、Grafana 的 监控告警平台。大致结构如下,具体实现以后有机会再专门写文章介绍,这里就不详述了。
最终,我们的整个平台的组成是这样的:
4. 容器化总结
到这里为止,这些就是杏仁目前的基础平台的架构。通过这套系统,我们提升了资源利用率,刚刚迁移到容器化环境的时候,我们只用了原来大约
6、70% 的云服务器。并且我们大大加强了我们的自动化运维的能力,完善了服务监控。
但是这套系统也存在不少问题。
新增服务器节点还是需要一些手工操作。
容器、环境等的配置都是分散在各处,缺乏有效的管理。
对有状态应用支持不好。
系统存在一些冗余,例如有 Zookeeper、有 Etcd 还有 Consul。
不支持自动扩容。
部分基础设施没有容器化。
未来我们会继续进化,也许等时机成熟了,也不排除会迁移到公有云的容器服务,或者自建 Kubernetes
集群。 |