查看原文
其他

容器平台选型的十大模式:Docker、DC/OS、K8S谁与当先?

2017-09-29 刘超 DBAplus社群


本文根据DBAplus社群第122期线上分享整理而成,文末还有好书送哦~


讲师介绍

刘超

网易云解决方案总架构师


  • 超10年云计算领域研发及架构经验,先后在EMC、CCTV证券资讯频道、HP、华为、网易从事云计算和大数据架构工作。

  • 在工作中积累了大量运营商系统、互联网金融系统、电商系统的容器化和微服务化经验。

  • 《Lucene应用开发揭秘》作者


无论是在社区,还是在同客户交流的过程中,总被问到底什么时候该用Docker?什么时候用虚拟机?如果使用容器,应该使用哪个容器平台?显而易见,我不会直接给大家一个答案,而是希望从技术角度进行分析具体的场景,例如客户是大公司还是小公司,将部署小集群还是大集群,倾向于私有云还是公有云,已经采购了IaaS还是没有IaaS,IT运维能力强还是弱,是否需要物理机、虚拟机、容器的混合部署,是一般的并发系统还是高并发,这里面所应该做的技术选型都不一样。


例如,如果你是一个初创型的主营业务非IT的小公司,自然不应该花大力气在数据中心里面自己搭建一套大规模、高并发、高性能的容器平台。


首先我们来谈什么情况下应该使用Docker的问题



如图,左面是经常挂在嘴边的所谓容器的优势,但是虚拟机都能一一怼回去。


如果部署的是一个传统的应用,这个应用启动速度慢,进程数量少,基本不更新,那么虚拟机完全能够满足需求。


  • 应用启动慢:应用启动15分钟,容器本身秒级,虚拟机很多平台能优化到十几秒,两者几乎看不出差别

  • 内存占用大:动不动32G,64G内存,一台机器跑不了几个

  • 基本不更新:半年更新一次,虚拟机镜像照样能够升级和回滚

  • 应用有状态:停机会丢数据,如果不知道丢了啥,就算秒级启动有啥用,照样恢复不了,而且还有可能因为丢数据,在没有修复的情况下,盲目重启带来数据混乱。

  • 进程数量少:两三个进程相互配置一下,不用服务发现,配置不麻烦


如果是一个传统应用,根本没有必要花费精去容器化,因为白花了力气,享受不到好处。



什么情况下,才应该考虑做一些改变呢?


传统业务突然被互联网业务冲击了,应用老是变,三天两头要更新,而且流量增大了,原来支付系统是取钱刷卡的,现在要互联网支付了,流量扩大了N倍。


没办法,一个字:拆!


拆开了,每个子模块独自变化,少相互影响。

拆开了,原来一个进程扛流量,现在多个进程一起扛。


所以称为微服务。



微服务场景下,进程多,更新快,于是出现100个进程,每天一个镜像。


容器乐了,每个容器镜像小,没啥问题,虚拟机哭了,因为虚拟机每个镜像太大了。


所以微服务场景下,可以开始考虑用容器了。



虚拟机怒了,老子不用容器了,微服务拆分之后,用Ansible自动部署是一样的。


这样从技术角度来讲没有任何问题。问题是从组织角度出现的。


一般的公司,开发会比运维多得多,开发写完代码就不用管了,环境的部署完全是运维负责,运维为了自动化,写Ansible脚本来解决问题。


然而这么多进程,又拆又合并的,更新这么快,配置总是变,Ansible脚本也要常改,每天都上线,不得累死运维。


所以在这如此大的工作量情况下,运维很容易出错,哪怕通过自动化脚本。这时,容器就可以作为一个非常好的工具运用起来。


除了容器从技术角度,能够使得大部分的内部配置可以放在镜像里面之外,更重要的是从流程角度,将环境配置这件事情,往前推了,推到了开发这里,要求开发完毕之后,就需要考虑环境部署的问题,而不能当甩手掌柜。


这样做的好处就是,虽然进程多,配置变化多,更新频繁,但是对于某个模块的开发团队来讲,这个量是很小的,因为5-10个人专门维护这个模块的配置和更新,不容易出错。


如果这些工作量全交给少数的运维团队,不但信息传递会使得环境配置不一致,部署量会大非常多。


容器是一个非常好的工具,就是让每个开发仅仅多做5%的工作,就能够节约运维200%的工作,并且不容易出错。


然而原来运维该做的事情开发做了,开发的老大愿意么?开发的老大会投诉运维的老大么?


这就不是技术问题了,其实这就是DevOps,DevOps不是不区分开发和运维,而是公司从组织到流程能够打通,看如何合作,边界如何划分,对系统的稳定性更有好处。


所以微服务、DevOps、容器是相辅相成,不可分割的。


不是微服务,根本不需要容器,虚拟机就能搞定,不需要DevOps,一年部署一次,开发和运维沟通再慢都能搞定。


所以,容器的本质是基于镜像的跨环境迁移。


镜像是容器的根本性发明,是封装和运行的标准,其它什么namespace,cgroup,早就有了。这是技术方面。


在流程方面,镜像是DevOps的良好工具。


容器是为了跨环境迁移的,第一种迁移的场景是开发、测试、生产环境之间的迁移。如果不需要迁移,或者迁移不频繁,虚拟机镜像也行,但总是要迁移,带着几百G的虚拟机镜像,太大了。


第二种迁移的场景是跨云迁移,跨公有云,跨Region,跨两个OpenStack的虚拟机迁移都是非常麻烦,甚至不可能的,因为公有云不提供虚拟机镜像的下载和上传功能,而且虚拟机镜像太大了,一传传一天。


所以跨云场景下,混合云场景下,容器也是很好的使用场景。这也同时解决了仅仅私有云资源不足,扛不住流量的问题。


所以这是我认为的容器的本质,是最终应该使用容器的正确姿势,当然一开始你不一定完全按照这个来。


模式一:公有云虚拟机


适合场景:初创公司,无信息安全担忧


如果您是一家初创公司,人员少,IT运维能力不足,要部署的系统很少,能够花在IT系统上的资金有限,当然应该选择公有云的虚拟机部署,它能够解决您的如下问题:


  • 基层IT资源的管理交给公有云平台,公司自身运维人员仅需要基本的Linux能力

  • 少量的部署系统,例如10台以下的虚拟机,往往替换一个war,重启Tomcat就能解决,如果稍微虚拟机多一点10到20台,Ansible脚本可以很好的解决这个问题

  • 公有云按量按时收费,可以在花费很少的情况下启动,并且在业务飞速扩展的时候,迅速申请大量虚拟机


这里所说的信息安全担忧,真的仅仅是心理的担忧,公有云往往有大量的安全机制来保证每个租户的安全隔离,只要用好了这些机制,公有云的安全性绝对大于一般的公司自己搭建的数据中心,为什么呢?


大家有兴趣可以阅读《当客户在说要安全的时候,客户在想什么?》,绝对的端到端解决方案。


这里贴张图说明公有云的安全性。



公有云为支撑自身高并发业务积累了更强的安全防护能力和更多的安全防护经验:


  • 多线BGP,外网线路冗余

  • 高吞吐量的DDoS外网防护

  • 更完善的防火墙,入侵检测,WAF

  • 更完善的流量清洗规则


公有云为支撑自身高并发业务推出了更安全、更高可靠、更高可用的PaaS服务:


数据库:

  • 高可用:主备切换数据零丢失

  • 高可靠:同城双活,异地备份

  • 安全性:访问控制,IP白名单


对象存储:

  • 高可靠:超大容量,三份备份,异地同步

  • 安全性:访问控制,防盗链


公有云为支撑自身高并发业务推出更完善的监控运维的系统,流程,经验:


  • 完善的监控系统,保障大促期间系统故障的快速定位和排障

  • 保障大促能够极大的提升和训练一支有经验的运维团队

  • 大促的业务层面的数据对运维也是机密的,需要流程保障


道高一尺魔高一丈,公有云为保证自身业务的安全性对云平台不断升级:


  • 越来越强的DDoS防护

  • 越来越完善的防火墙规则

  • 最新的云平台安全功能和机制

  • 不断更新的虚拟机和容器镜像建设漏洞

  • 不断更新的病毒库


这不是今天的重点,这几张图大家自行参考。


模式二:无IaaS,裸用容器


适用场景:初创公司无IaaS,有信息安全担忧


但是即便如此,还是有初创公司或者初创项目,也许因为心理方面,也许因为合规方面,非常担心信息安全问题,还是希望采取部署在自己机房的方式。


但由于是初创公司,在机房里面一般是不能部署IaaS,因为IaaS平台的运维难度,优化难度更大,没有一个50人的团队根本玩不起来,所以一般在使用容器之前,采用的是物理机部署的方式,当物理机数目非常小,比如部署5到10个应用的时候手动部署或者简单脚本部署就可以,但是一旦到了20个应用,手动部署和简单脚本就非常麻烦了:


  • 运维人员比例低,而应用相对较多

  • 部署在同一个物理机上的应用多,配置冲突,端口冲突,互相连接,运维需要一个excel去管理,还容易出错

  • 物理机容器被脚本和Ansible改的乱七八糟,难以保证环境一致 39 38890 39 15287 0 0 2244 0 0:00:17 0:00:06 0:00:11 3005,重装物理机更加麻烦

  • 不同的应用依赖不同的操作系统和底层包,千差万别


这个时候,可以试一下裸用容器,即在原来的脚本,或者Ansible里面,将启动进程,改为使用Docker run,可以有以下的作用:


  • 配置,端口隔离,冲突减少

  • 基于容器部署,使得环境一致性,安装和删除干干净净

  • 不同的操作系统和底层包,都可以用容器镜像搞定


在这个阶段,最简单的方式就是把容器当做虚拟机来使用,也即先启动容器,然后在里面下载war包等,当然也可以更进一步,将war包和配置直接打在容器镜像里面,这样需要一个持续集成的流程了,不仅仅是运维的事情,开发也要参与其中。


在这个阶段,网络的模式可以使用桥接打平的方式。



这种方式好处是访问Docker和访问物理机一样,可很方便地实现Docker里面和物理机里面的互通,兼容原来部署在物理机上的应用。


当然Bridge的性能一般,如果性能要求比较高,可使用SR-IOV网卡嵌入容器内。



模式三:有IaaS,裸用容器


适用场景:创新项目,引入DevOps流程


有一些公司规模大一些,已经采购了IaaS,只不过有一些创新的项目需要部署,这种状态下,基本虚拟机已经能够满足需求,而且由于能够运维IaaS,IT能力比较强,一般也采用了Ansible等部署工具。


这种情况下,使用容器的动力相对比较少,然而容器也是能够带来一定好处的,就是DevOps。


创新项目迭代速度比较快,如果有比较多的创新项目,对运维的压力也是非常大的,这里的裸用容器和模式二的裸用容器不同的是,不是拿容器当做虚拟机来用,而是将容器当做交付物来用。虽然容器化对于运维的整个过程来讲改进有限,但是关键就是要开发写一个Dockerfile,这一点非常重要,意味着运行环境的配置提前到开发,而非直接交到运维,也即上面说的,开发5%的工作量增加减少大量运维工作,容器环境原子性升级回滚使得停服时间变短,可以保持开发、测试、运维环境的一致性。



模式四:使用Docker Swarm Mode


适用场景:发展中公司,中等规模集群


当集群规模超过50台时,裸用容器已经非常难受了,因为网络、存储、编排

服务发现等全部要靠自己的脚本或Ansible来搞定,是时候引入容器平台了。


当容器平台规模不是很大时,Docker Swarm Mode还是比较好用的:


  • 集群的维护不需要Zookeeper,不需要Etcd,自己内置

  • 命令行和Docker一样的,用起来顺手

  • 服务发现和DNS是内置的

  • Docker Overlay网络是内置的


总之Docker帮你料理好了一切,你不用太关心细节,很容易就能够将集群运行起来。


而且可以通过docker命令,像在一台机器上使用容器一样使用集群上的容器,可以随时将容器当虚拟机来使用,这样对于中等规模集群,以及运维人员还是比较友好的。


当然内置的太多了也有缺点,就是不好定制化,不好Debug,不好干预。当你发现有一部分性能不行时,你需要改整个代码,全部重新编译,当社区更新了,合并分支是很头疼的事情。当出现问题时,由于Manager大包大揽干了很多活,不知道哪一步出错了,反正就是没有返回,停在那里,如果重启整个Manager,影响面又很大。



模式五:使用Marathon和Mesos


使用场景:万节点集群,多定制


当集群规模大一些,几百个节点时,很多人就不愿意使用Docker Swarm Mode了,很多的选择是既没有用DC/OS,也没有用Kubernetes,而是仅仅用了Marathon和Mesos。


因为Mesos是一个非常优秀的调度器,它的双层调度机制可以使得集群规模大很多。


Mesos的调度过程如图所示:



Mesos有Framework、Master、Agent、Executor、Task几部分组成。这里面有两层的Scheduler,一层在Master里面,allocator会将资源公平的分给每一个Framework,二层在Framework里面,Framework的scheduler将资源按规则分配给Task。


其它框架的调度器是直接面对整个集群,Mesos的优势在于,第一层调度先将整个Node分配给一个Framework,然后Framework的调度器面对的集群规模小很多,然后在里面进行二次调度,而且如果有多个Framework,例如有多个Marathon,则可以并行调度不冲突。


详细的调度机制非常复杂,可以看《号称了解mesos双层调度的你,先来回答下面这五个问题!》这篇文章。


而且Mesos的架构相对松耦合,有很多可以定制化的地方,从而运维人员可以根据自己的需要开发自己的模块。详细的定制方式看文章《定制化Mesos任务运行的几种方法》。


这也是很多优秀的公司使用Marathon和Mesos的原因。


例如爱奇艺、去哪儿、携程、当当等都选择了使用Mesos,需要提一下的是,大家如果参加社区,能发现裸用Marathon和Mesos的很多,但是整个DC/OS都用得比较少,而用Marathon和Mesos往往不能解决一些问题,因而这些IT能力非常强的互联网公司做了大量的自己的定制化,增加了Marathon和Mesos的外围模块。


模式六:使用开源Kubernetes


使用场景:千节点集群,少定制


Kubernetes模块划分得更细,模块比较多,比起裸Marathon和Mesos来讲功能丰富,而且模块之间完全的松耦合,可以非常方便地进行定制化。



而且Kubernetes的数据结构的设计层次比较细,非常符合微服务的设计思想。例如从容器->Pods->Deployment->Service,本来简单运行一个容器,被封装为这么多的层次,每次层有自己的作用,每一层都可以拆分和组合,这样带来一个很大的缺点,就是学习门槛高,为了简单运行一个容器,需要先学习一大堆的概念和编排规则。


但是当需要部署的业务越来越复杂时,场景越来越多时,你会发现Kubernetes这种细粒度设计的优雅,使得你能够根据自己的需要灵活的组合,而不会因为某个组件被封装好了,从而导致很难定制。例如对于Service来讲,除了提供内部服务之间的发现和相互访问外,还灵活设计了headless service,这使得很多游戏需要有状态的保持长连接有了很好的方式,另外访问外部服务时,例如数据库、缓存、headless service相当于一个DNS,使得配置外部服务简单很多。很多配置复杂的大型应用,更复杂的不在于服务之间的相互配置,可以有Spring Cloud或者Dubbo去解决,复杂的反而是外部服务的配置,不同的环境依赖不同的外部应用,External Name这个提供和很好的机制。


包括统一的监控cadvisor,统一的配置confgMap,都是构建一个微服务所必须的。


然而Kubernetes当前也有一个瓶颈——集群规模还不是多么大,官方说法是几千个节点,所以超大规模的集群,还是需要有很强的IT能力进行定制化,这个在模式七中会说一下我们在网易云上做的事情。但是对于中等规模的集群也足够了。


而且Kubernetes社区的热度,可以使得使用开源Kubernetes的公司能够很快地找到帮助,等待到新功能的开发和Bug的解决。


模式七:深入掌握使用Kubernetes


使用场景:万节点集群,IT能力强


随着Kubernetes使用规模的越来越大,大型的公司可以对Kubernetes进行一定的定制化,从而可以实现万节点甚至更大规模的支撑,当然需要IT能力比较强,网易在这方面有很多的实践。


从APIServer看集群的规模问题


随着集群规模的扩大,apiserver的压力越来越大。



因为所有的其他组件,例如Controller、Scheduler、客户端、Kubelet等都需要监听apiserver,来查看etcd里面的变化,从而执行一定的操作。


很多人都将容器和微服务联系起来,从Kubernetes的设计可以看出,Kubernetes的模块设计时非常的微服务化,每个进程都仅仅干自己的事情,而通过apiserver的松耦合关联起来。


而apiserver则很像微服务中的api网关,是一个无状态的服务,可以很好地弹性伸缩。


为了应对listwatch,apiserver用了watchcache来缓解压力,然而最终的瓶颈还是在etcd上。


最初用的是etcd2,这时候listwatch每次只能接受一个事件,所以压力很大。为了继续使用etcd2,则需要使用多个etcd2的集群来解决这个问题,通过不同的租户分配到不同的etcd2集群来分担压力。


将来会迁移到etcd3有了事件的批量推送,但是从etcd2到etcd3需要一定的迁移工作。


通过优化Scheduler解决并行调度的问题


大的资源池的调度也是一个很大的问题,因为同样一个资源只能被一个任务使用,如果并行调度,则存在两个并行的调度器同时认为某个资源空闲,于是同时将两个任务调度到同一台机器,结果出现竞争的情况。


为了租户隔离,不同的租户是不共享虚拟机的,这样不同的租户是可以参考Mesos机制进行并行调度的。因为不同的租户即便进行并行调度,也不会出现冲突的现象,每个租户不是在几万个节点中进行调度,而仅仅在属于这个租户的有限的节点中进行调度,大大提高了调度策略。



并且通过预过滤无空闲资源的Node,调整predicate算法进行预过滤,进一步减少调度规模。


通过优化Controller加快新任务的调度速度



Kubernetes采用的是微服务常使用的基于事件的编程模型。


当有增量事件产生时,则controller根据事件进行添加、删除、更新等操作。


但基于事件模型的一个缺点是,总是通过delta进行事件触发,过了一段时间,就不知道是否同步了,因而需要周期性地Resync一下,保证全量的同步之后,然后再进行增量的事件处理。


然而问题来了,当Resync时,正好遇到一个新容器的创建,则所有的事件在一个队列里面,拖慢了新创建容器的速度。


通过保持多个队列,并且队列的优先级ADD优于Update优于Delete优于Sync,保证相应的实时性。


模式八:深入掌握使用DC/OS


使用场景:万节点集群,IT能力强


前面说过Mesos由于本身独特的调度机制,从而支撑的集群规模比较大,但是大多数使用Mesos的公司都没有使用DC/OS,而是裸使用Marathon和Mesos外加自己定制开发的一些组件。


Mesos可以支持当集群规模非常大,单个Marathon的性能不足以支撑时,可以使用自己的Framework机制,使得不同的租户使用单独的Marathon来解决问题。



后来DC/OS在最基础的Marathon和Mesos之上添加了很多的组件,如图所示,现在已经非常丰富,例如DCOS的客户端(kubectl)、API网关admin router(类似apiserver)、服务发现minuteman(类似kube-proxy)、Pod的支持、CNI插件的支持、存储插件的支持等,和Kubernetes已经非常像了。


很多公司裸用Marathon和Mesos而没有进一步使用DC/OS,可能是因为和核心组件Mesos已经经过大规模生产性支撑不同,这些外围的组件也是新的,对其稳定性也是有一定的顾虑,所以需要比较长的学习曲线,并且对于这些新的组件有非常好的把控,才敢上生产。


所以从这个角度来讲,虽然Mesos的稳定性和大规模无容置疑,但就整个DC/OS来讲,和Kubernetes从功能和稳定性来讲,在伯仲之间,都需要使用者有强大的IT能力,对于开源软件的各个模块非常熟悉,甚至能够做一定的代码修改和Bug fix,才敢在大规模集群中使用。


模式九:部署大数据,Kubernetes vs. Mesos


Mesos还有一个优势,就是Mesos可以通过开发Framework,构建大数据平台,例如Spark就有基于Mesos的部署方式。



基于Mesos的Spark有两种方式,粗粒度和细粒度。


  • 粗粒度模式(Coarse-grained Mode):应用程序的各个任务正式运行之前,需要将运行环境中的资源全部申请好,且运行过程中要一直占用这些资源,即使不用,最后程序运行结束后,回收这些资源。组粒度的方式浪费资源。


  • 细粒度模式(Fine-grained Mode):按需分配,应用程序启动时,先会启动executor,但每个executor占用资源仅仅是自己运行所需的资源,不需要考虑将来要运行的任务,之后,mesos会为每个executor动态分配资源,每分配一些,便可以运行一个新任务,单个Task运行完之后可以马上释放对应的资源。细粒度的缺点是性能有问题。


其实细粒度模式才是真正能够发挥Mesos动态资源调度最有效的方式,但是考虑到有大幅度的性能降低,https://issues.apache.org/jira/browse/SPARK-11857,很可惜这种方式在Spark 2.0.0被deprecated掉了。


如果使用kubernetes部署大数据,其实和部署一个普通的应用思路差不多,和Mesos不同,kubernetes不会干预到大数据运行的上下文中,Kubernetes启动的容器仅仅作为资源预留方式存在,容器内的资源分配则大数据平台自己解决。这样的利用率就降低了,相当于粗粒度模式。


基于容器部署大数据平台,也是建议部署计算部分,例如Map-Reduce,或者Spark,对于数据部分HDFS,应当另行部署。


模式十:容器和虚拟化混合部署


使用场景:大型公司,逐步容器化


对于很多大公司但是非互联网公司,使用容器还是需要小心对待的,因而需要逐步容器化,所以存在有IaaS平台,并且虚拟机和容器混合使用的状态,这种状态可能会持续相当长的时间。


在这种情况下,建议容器套在虚拟机里面使用。


使用Flannel和Calico都仅仅适用于裸机容器,而且仅仅用于容器之间的互通。




一旦有IaaS层,就会存在网络二次虚拟化的问题。


虚拟机之间的互联是需要通过一个虚拟网络的,例如vxlan的实现,而使用Flannel或者Calico相当于在虚拟机网络虚拟化的上面再做一次虚拟化,使得网络性能大幅度降低。


而且如果使用Flannel或者Calico,那容器内的应用和虚拟机上的应用相互通信时,则需要出容器平台,多使用node port,通过NAT的方式访问,或者通过外部负载均衡器的方式进行访问。在现实应用中,不可能一下子将所有的应用全部容器化,只是部分应用容器化,部分应用部署在虚拟机里面是常有的现象。然而通过NAT或者外部负载均衡器的方式,对应用的相互调用有侵入,使得应用不能像原来一样相互调用,尤其是当应用之间使用Dubbo或者SpringCloud这种服务发现机制时,尤其如此。



网易云开发了自己的NeteaseController,在监听到有新的Pod创建时,调用IaaS的API创建IaaS层的虚拟网卡,然后在虚拟机内部,通过调用Netease CNI插件将虚拟网卡添加到容器里面。添加技术用的就是上一节提到的setns命令。



通过这个图我们可以看出,容器的网卡是直接连接到虚拟私有网络的OVS上的,和虚拟机是一个平的二层网络,在OVS来看,容器和虚拟机是在同一个网络里面的。


这样一方面没有了二次虚拟化,只有OVS一层虚拟化。另外容器和虚拟机网络打平的好处是,当部分应用部署容器、虚拟机时,对应用没有侵入,应用原来如何相互访问,现在还是如何访问,有利于应用逐步容器化。



OpenStack里面有一个项目Kuryr可以很好地去做这件事情,完全使用开源的OpenStack和Kubernetes可以尝试集成一下。


直播链接

https://m.qlchat.com/topic/details?topicId=2000000012292361

密码:927


来一发彩蛋

在本文微信订阅号(dbaplus)评论区留下足以引起共鸣的真知灼见,并在本文发布后的隔天中午12点入选精选留言并成为点赞数最多的1名,可获得以下好书一本~


特别鸣谢博文视点为活动提供图书赞助。


近期热文:

万字总结:学习MySQL优化原理,这一篇就够了!

直击Redis持久化磁盘IO痛点,让存储不再有负担!

Spark在唯品会财务系统重构中的实践总结

企业级运维三板斧:运维的价值、效率与能力呈现

Linux服务器被黑遭敲诈,3小时紧急逆袭!


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存