传统企业PaaS平台功能设计与业务上云思考

来源:CSDN 作者:牛继宾

伴随着Docker技术的兴起,以及容器集群管理平台Mesos、Kubernetes、Swarm、Rancher等的大行其道,仿佛PaaS平台及其相关技术一下进入了黄金时期,各种各样的技术组合,各种各样的技术验证,以及伴随着容器相关的创业公司布道,仿佛只要有了PaaS平台及其相关的技术,就能解决一切的企业IT问题。但是,企业IT,尤其是非互联网传统企业,PaaS平台的构建与业务上云是一个长期的过程,绝不是一个Docker+kubernetes/Mesos/Swarm构建完以后就能完成的,IaaS年代是这样,PaaS年代也是这样。

在互联网公司或者自研发型的应用,开发环境与部署运行环境非常的类似,这也是Docker或者容器相关技术在应用上的一个很大的优势(比如构建开发、测试、部署的DevOps流水线),但是在传统企业便不一定能行得通,比如某个企业的IT应用开发维护是外包的,标准软件需要采购、应用开发需要在应用开发商完成、硬件是另外的硬件提供商,到货后需要硬件系统集成、标准软件部署、应用开发部署调试,需要很多供货商来完成,往往以项目经理统筹完成,很难由一套DevOps之类的平台来解决所有问题。

那么传统企业PaaS平台设计需要什么样的功能?上云时又需要进行如何改造?这是本文探讨的重点。

一、传统企业的应用架构与应用分类

image.png

大家对这种架构耳熟能详,但也请做云计算或者容器技术的同事不要对这种架构嗤之以鼻,因为这种架构也包含很多对我们有学习借鉴意义的技术模块:

  • SAN存储:包括高、低、中不同的存储,存储中磁盘的RAID配置、存储池配置、存储的集群配置、存储的容灾备份、数据的热点迁移、数据的缓存、存储之间的SAN交换机配置(划分Zoning,连接主机)等都需要专业的存储工程师(衍生出来了很多的认证),这种存储可以做到高IOPS、低延迟、高可靠性,是目前大多数的分布式存储难以匹敌的,且目前存储厂商在SAN上也做到了虚拟化;

  • 主机:小型机、x86服务器,小型机以IBM小型机为例,小型机虚拟化比x86虚拟化出现的年代早了几十年,当时是硬分区技术,后来发展到逻辑分区+IO虚拟化,逻辑分区可以做到分配0.1个CPU的细粒度,同时也在2007年就推出了类似于容器的技术,做到了进程级别的隔离,但因为不开源、不方便打包、镜像管理没有Docker方便,最终只在少数客户处进行了部署使用;

  • DB:传统的数据库厂商比如Oracle为例,很早就推出了RAC技术,同时,2012年左右Oracle研发中心内部就开始使用Container技术搭建DB as a Service(这比我们目前大多数的Docker相关的创业公司还早);

  • APP:以IBM WebSphere为例,十年之前就有WAS集群的概念,可以部分做到横向扩展。

传统企业这种架构统治了企业IT数十年之久,在大的行业,通常以商用中间件、商用DB、小型机、SAN存储部署。这种架构存在扩展性不足的问题,但是在传统企业架构中大量存在。

我们部署一个IT系统,最终的目的是为了解决传统的问题,所谓把线下业务线上化,这些业务最终的服务对象是数据,而数据处理大致可以分成两大类:联机事务处理OLTP(on-line transaction processing)、联机分析处理OLAP(On-Line Analytical Processing)。

当然还有其他的业务类型,比如银行或者运营商的每月出账系统,这种系统为也是一种批处理系统,但是实时性很强,跟Hadoop MR所谓的批处理不是一个概念,也不在一个层级。这种应用我们暂时不考虑。

image.png

OLTP,也叫联机事务处理(Online Transaction Processing)系统,表示事务性非常高的系统,一般都是高可用的在线系统,评估其系统的时候,一般看其每秒执行的Transaction以及Execute SQL的数量。典型的OLTP系统有客户关系管理系统、电子商务系统、银行、证券等。

要求:一致性、高可用性。

OLAP,也叫联机分析处理(Online Analytical Processing)系统,有的时候也叫决策支持系统,就是我们说的数据仓库。在这样的系统中,语句的执行量不是考核标准,因为一条语句的执行时间可能会非常长,读取的数据也非常多。所以,在这样的系统中,考核的标准往往是磁盘子系统的吞吐量(带宽),如能达到多少MB/s的流量。

下面我们分别分析一下这两类应用的云化需求与云化的分析。

注意:这些要求分析与要求是在Docker与各类容器管理平台火起来之前总结与做的,不是依据Docker或者容器相关技术的要求做的。所以,对我们跳出容器的惯性思维,构建一个适合传统企业的PaaS云平台有很强的指导意义。

二、传统企业的应用云化改造需求

(一)OLTP类应用云化的要求

image.png

云化关键点1:系统弹性伸缩

通过应用与数据分离和集群化部署,实现系统快速扩容、处理能力灵活水平线性扩展、故障自动隔离。对于独立的应用主机可以进行灵活弹性伸缩。

image.png

弹性伸缩特点:

  1. 在线快速扩容:系统扩容操作低耗时、无数据迁移、服务不间断;

  2. 处理能力线性扩展:系统处理能力可以通过新增节点近线性提升,实现高吞吐、高并发处理能力,应对业务爆发式增长;

  3. 故障自动接管:集群可以自动发现故障节点并调整任务调度策略,在不影响处理的同时接管故障节点,保持系统高可用。

云化关键点2:应用集群化部署

将紧密耦合的大应用模块化拆分为多个模块化小应用,通过资源池提供系统资源的整体利用率,并将拆分后的子模块部署于资源池(后来我们搞Docker的称之为微服务化)。当硬件资源实施池化后,才具备了支撑应用的弹性伸缩,实现硬件的按需分配的基本需求,充分提高资源利用率。

云化关键点3:通过数据分级分类实现应用与数据分离

根据数据实时性、重要性、敏感性等因素,将数据分成数个级别,各个级别的数据对系统的作用、采用存储、保护方式也都有所不同。

image.png

过对应用提供数据的透明访问,屏蔽数据的位置差异、数据分布差异、数据存储等差异:

  1. 位置无关性:数据在远程还是本地存储,对应用最好透明。

  2. 分布无关性:数据分布在多个数据节点,对应用透明。比如查询某个客户的所有相关数据,虽然同一个用户信息分布在多个数据节点上,但对应用来说就好像一个集中数据库进行查询。

  3. 存储无关性:数据存储在内存库、物理库(关系型数据库、NoSQL数据库)、File还是缓存等介质,对应用透明。

云化关键点4:合理规划实现数据分布式部署

对不同业务的数据、不同类型的数据进行有效规划部署。通过某种特定的条件,将存放在同一个数据库中的数据分散存放到多个数据库上,实现数据分布存储,通过路由规则路由访问特定的数据库。

数据库拆分方式包括:

  • 垂直(纵向)拆分:将数据库表按业务、功能拆分到不同的数据库表,比如分为客户资料库、订单库、资源库、资料库等,这种方式多个数据库之间的表结构不同;目的是降低业务之间的影响,减少系统承载压力。

  • 水平(横向)拆分:将同一个表的数据进行分块保存到不同的数据表中,这些数据库中的表结构完全相同。

拆分以后,带来的问题,需要做到:对外提供统一访问,对应用屏蔽数据访问复杂度。数据访问层提供数据互访能力,拆分访问合并返回。

所以需要构建统一数据访问引擎,或者数据路由层(Data layer层)。开源的比如有Hibernate Shards、Ibatis-Sharding、淘宝TDDL等。

云化关键点5:数据平台化

数据平台化是指通过应用架构和数据架构的重新梳理、规划与调整,将业务处理中的业务数据和状态数据与应用分离,实现应用的轻量化、无状态;构建统一的数据访问层,实现数据的共享访问。数据平台化是数据处理水平线性扩展的前提和基础。

数据平台化特点:

  • 应用轻量化:缩短开发周期,提升新业务响应速度;

  • 应用无状态:实现应用的同质化,应用层处理能力的独立扩展,实现应用灵活调度和分配;

  • 数据共享访问:逐步实现数据集中访问,跨地市的流量共享、流量统付、流量转移业务能够更高效支撑。

(二)OLAP型应用云化的需求

首先看一下传统的数据仓库典型架构:

image.png

这种架构以处理结构化数据为主,基本部署于Oracle、小型机、SAN存储之上,扩展性不足,难以处理海量数据。大数据处理技术的兴起让这类应用的云化找到了思路。云化时总体推荐混搭架构,即采用多种技术架构建设大数据中心:

1. 垂直混搭架构:

image.png

这种架构比较容易部署,但会形成多个相互独立的信息孤岛;未来缺乏可行的系统演进路;

2. 水平混搭架构:

image.png

  • 企业级数据云平台:逐渐实现企业内数据的统一存储,承载数据的加工计算;未来提供企业数据的统一存储和计算能力;

  • 数据仓库、集市和挖掘库:计算逐渐迁移到云平台实现轻载化;直接从云平台加载应用结果数据,实现上层应用的兼容性;

  • 流处理平台:实时计算结果存储到云数据平台,可通过能力开放平台的消息中间件直接供应用访问。

OLAP云化关键点1:数据计算引擎开源化

M/R计算引擎:用HDFS文件保证每一步计算结果,避免硬件故障导致重头执行。

  • 优点:可靠性高;

  • 缺点:数据处理任务是一系列M/R任务的串行执行,输入和输出都是HDFS文件,导致频繁的磁盘I/O,执行速度慢;

  • 局限性:原始单一的编程模型和数据结构,导致开发效率低,限制更多应用的产生。

Spark计算引擎:RDD是分布式内存的抽象。

  • 优点:执行效率比起M/R提升100倍以上;提供丰富的操作算子增强编程能力,简化应用开发;

  • 缺点:对内存等资源要求高;可靠性不如M/R;

  • Yarn实现资源调度和分配:一个节点上可同时执行M/R和Spark任务,资源相互隔离、执行互不干扰。

OLAP云化建设关键点2:数据集市云化建设

建设现状:传统小机+Oracle数据库和新建的MPP数据库两种建设模式。

  • 演进策略一:用MPP数据库来取代小机+Oracle数据库;

  • 演进策略二:用数据云平台+开源MYSQL/PGSQL集群来代替小机+Oracle数据库。

数据云平台完成所有的后台计算。

屏幕快照 2016-06-16 上午9.55.50

OLAP云化关键点3:数据ETL云化建设

  • 传输的实时化:支持MQ等分布式实时消息传输机制;

  • 基于内存的计算:数据不落地,避免海量数据的两次重复加载;

  • 计算的轻量化:清单级的过滤、排重、规则化,更多的计算任务由大数据存储和计算平台来完成;

  • 分布式并行执行:高可用性、分布式调度、资源分配;

  • 技术实现:Kafka+HDFS+MR/Spark。

image.png

三、基于容器的PaaS平台架构的构建

我们提到了传统企业中两类核心的应用,并且在Docker流行之前便规划了一些云化的关键点,并形成了PaaS平台,使之运行于IaaS平台与Hadoop YARN集群之上。

image.png

基于此架构有以下几个主要问题:

  1. 可以实现应用编排与部署,但是编排的基础单元是虚拟机模板,模板比较重,而且镜像很难修改,编排、分发、运行、持续集成等都有很大的困难,因此构建在模板上的应用形成的服务很难用;

  2. 基于虚拟机的弹性伸缩相应时间也比较慢,我们尝试做过基于Cloudwatch+Autoscaling的虚拟机弹性伸缩功能,发现弹性伸缩对业务的响应时间有一个偏差,这个偏差大约在十几分钟,在抢购、秒杀等业务中基本不可接受;

  3. 很难在企业内部形成一个统一的私有云集群来同时运行这两类业务,因此两个PAAS集群实际上是两个独立的集群,都是按照业务最高峰配置,存在资源浪费的现象,运维也是分开运维。

Docker及其相关技术兴起之后,我们基于容器的相关生态圈技术,构建了新一代PaaS平台。

image.png

使用容器+容器镜像管理替代服务目录管理+虚拟机模板管理。

在Instance PaaS(iPaaS)平台上除了基于Kubernetes的容器管理、镜像管理、应用管理等功能,还构建了如下子系统:

  • 日志子系统:基于ELK实现;

  • 计算子系统:集成OpenStack与自研的Skyform CMP;

  • 存储子系统:通过Cinder,支持ISCSI、NFS、Ceph三类存储,与IaaS打通;

  • 网络子系统:我们选用了Netron+OVS的SDN解决方案;

  • 监控子系统:通过Ceilometer+MongoDB进行实施数据的监控、Phoenix+Hadoop进行历史数据分析;

  • 用户交互子系统:基于Node.js开发。

整体的PaaS平台构建基于Kubernetes、Hadoop、Spark on Mesos,构建完整的DCOS平台。

需要说明的是,在传统企业在云平台还需要对接大量的系统,比如ITIL、4A/3A、人力资源系统、审计系统等,这些系统与云平台的接口集成不在本次讨论范围内。

下面说一下基于以上的PaaS平台对传统应用云化关键点的解决。

针对OLTP类应用云化的5个关键点的解决:

  1. 系统弹性伸缩:通过Kubernetes RC+service实现;

  2. 应用集群化部署:通过Mesos/Kubernetes构建x86集群,将应用分布式改造以后部署与集群;

  3. 通过数据分级分类实现应用与数据分离:通过Big data PaaS的HDFS服务与Instance PaaS的DB服务可以提供部分数据分级服务的基础,但是数据分级与存储,以及访问透明性未能完全实现,需要在业务层面进行适配;

  4. 合理规划实现数据分布式部署:通过在Instance PaaS提供数据库服务,以及开开源数据路由服务,实现,注:需要DBA规划数据的存储;

  5. 数据平台化:应用改造后即可实现。

OLAP云化的3个关键点的解决:

  1. 数据计算引擎开源化:可由Bigdata PAAS直接提供MR、Spark服务;

  2. 数据集市云化建设:可由Instance PaaS平台提供开源MySQL+TDDL实现;

  3. 数据ETL云化建设:可由Instance PaaS提供Kafka、Big data PaaS提供MR、SPARK实现。

四、PaaS平台问题及传统应用上云改造的一些注意点

(一)基于Kubernetes、Hadoop、Spark on Mesos的问题

这种调度实际上是两级的调度框架,Mesos本身只管资源(主要是CPU与MEM),提供offer给上层的调度框架使用。一级调度即Mesos层有两种调度模式:

  1. Mesos粗粒度,这种模式下,一旦一台机器(一个Node)分配给某个框架,其他框架便不能使用;

  2. Mesos细粒度,这种模式下,多个框架可以共享一台机器(一个Node)。

粗粒度存在资源还是不能完全共享的问题,因此仍然有资源浪费的问题,细粒度模式可以改变这种问题,但是又带来新的问题:

  1. Mesos集群运行多种框架,包括Spark,也运行着很多Web、中间件、数据库等服务,但是Mesos不支持抢占,无法设置任务优先级,而Spark默认是贪婪模式,这样就会出现Spark运行时无法发布其他Web任务到Mesos集群上的情况。

  2. Hadoop与Spark在运行时,Shuffle阶段数据会交互写HDFS磁盘,这时网络资源会被大量占用(我们称之为东西向流量),导致Web服务基本不能响应(我们称之为南北向流量)。

(二)多租户的问题

目前多个框架之间每个都有自己的用户管理模式,默认情况下,如果多个框架之间有交叉使用,需要在多个框架之间租户互相打通,涉及到Mesos、Hadoop、Kubernetes的账号打通问题,需要开发独立的账户中心,并且完成同步。

最后讨论一下应用上云时的考虑点,并给出一个例子:

  1. 应用最好无状态,无状态化的应用天生适合上云。这时服务的注册于发现、应用的弹性伸缩完全交给云平台来做,比如Mesos+Marathon的HAProxy+etcd+Confd或者Kubernetes8s的service+RC;

  2. 已经集群化的应用组件部署相对困难,比如基于PaaS平台发布单个实例的Redis容器,但是发布Redis集群就比较困难,苦难就困难在Redis集群中的节点需要相互通信,而容器如果重启或者IP发生变化都会对集群造成影响;

  3. 服务注册与发现如果应用本身提供了,PaaS平台的服务注册与发现功能便不能使用,不能两套服务注册与发现同时使用。

这里给出一个应用上云部署的例子:

image.png

上图左边是某传统企业电商应用最初架构,Web部署于一台高配置x86服务器、APP部署于一台中端小型机、DB部署于一台中端小型机,右边是初步进行了改造后的架构,即迁移到PaaS平台之前应用已经做了模块化与集群化的初步改造:

  1. 前台用负载均衡将流量引入到三个Web节点中,每个Web节点部署于x86服务器,Session集中存在Redis集群(无状态化改造,交互用HTTP+JSON短连接);

  2. APP层也通过Redis集中存放状态信息,做到了无状态化,每个APP节点部署于三台x86服务器;

  3. Web与APP在流量大的时候可以做到手动扩容,但是需要配置固定的IP,APP服务(提供给)的注册发现是基于ZooKeeper完成(应用自己来完成服务注册于发现);

  4. DB层做了主从数据库,部署与x86服务器。

该应用里面还用到了Kafka,用来做数据总线,也采取了集群化部署。

image.png

针对目前的现状,如上图,应用迁移到PaaS平台需要做三方面的工作:

  1. 完成Web层的服务注册与发现,在此基础上实现web层的自动扩缩容,此处基于Kubernetes的ingress service(一个改造后的Nginx,运行在一个Kubernetes的POD里面)实现软负载+RC控制节点伸缩实现(每个Web部署于一个pod);

  2. APP层的自动扩缩容,由于已经完成了基于ZooKeeper的服务注册于发现,所以只需APP层能够弹性伸缩部署即可;此处基于RC控制节点伸缩实现;

  3. DB层由于运行稳定,暂时不做PaaS化但是,基于访问路由做到分布式部署。

剩余一个问题需要探讨,Redis集群、ZooKeeper集群、Kafka集群(用作消息总线)要不要做PaaS化?如何做?

首先回答一个问题,Redis、Zookeeper、Kafka等集群PaaS化(容器化)的难点在哪儿?

主要是这些集群节点之间的互相通信与数据传输即东西向流量,要求这些节点之间的IP配置需要固定IP,而且重新启动以后相应的配置信息不能改变。容器自身的启动、网络配置比较动态化,对需要固定的集群配置而言是一个挑战。

比如大多数的PaaS平台提供单个实例的Redis缓存服务不是问题,但是提供任意配置的Redis集群便不支持。我们经过前期的测试,实现了容器平台下的此类应用的集群化部署,以ZooKeeper为例:

image.png

ooKeeper自身部署要求:

  1. ZooKeeper client依赖固定ZooKeeper server IP来完成服务;

  2. ZooKeeper server配置(所有成员IP必须固定);

  3. 至少3个独立节点;

解决方案(基于Kubernetes):

  1. Client通过固定3个service IP连接ZooKeeper server;

  2. 构建3个单POD的RC;

  3. 配置DeamonSet,指定ZooKeeper的POD所启动运行的主机;

  4. ZooKeeper自身配置使用Service DNS name;

  5. 存储进行持久化。

最后,需要说明的是,应用上云后一个很重要因素,PaaS平台(Docker为基础的构建),稳定性与可靠性也是至关重要的,我们在部署迁移应用时,每次都会针对应用做较为详细的测试,测试案例包括:

  • 无负载的POD并发测试;

  • 频繁创建带业务的POD及其稳定性;

  • 业务的并发性测试;

  • 不同业务的IO并发性能测试;

  • 容器间网络性能测试;

  • 几类常见的数据库性能测试;

  • Nginx集群性能测试;

  • Kubernetes Rc机制测试;

  • Docker对MEM资源限制能力的测试;

  • Docker对进程数量限制能力的测试;

等等。这些测试方面供大家参考,具体测试方法与步骤可针对应用自行设计,不在这里具体分享。

Q&A

Q:在你的新一代PaaS平台中,我怎么对公司的很多个不同的应用做不同的集群,有些集群偏向于大量的IO占用,有些集群偏向于大量的网络占用,有些集群偏向于大量的内存占用,并且启用的集群间还有通信和交互,针对这些不均衡现象该如何处理?

A:所以PaaS平台硬件资源会针对不同应用去做区分,在企业私有云建设时,需要对应用进行梳理,将不同的应用分类,底层采取相应集群支撑,比如计算密集型、IO密集型等,同时综合考虑波峰波谷与业务特性进行配置。

Q:公司有很多Web系统,每一个Web系统都有自己的存储、数据库,所以如果融入PaaS平台的话,首先第一点软硬件问题如何做到全部满足,其次就是就算把我的DB层整合迁徙到你的PaaS的DB层,我是不是还要做其它方面的投入,比如开发成本等等,还有就是DB的兼容性是不是会有问题?

A:Web层我们推荐做无状态化,且要做应用与数据分离,session信息集中存放。DB迁移到PaaS层是一个比较慎重的过程,PaaS层优先考虑开源数据库。如果原先是MySQL基于PaaS平台也提供的MySQL数据库服务,那么开发成本基本比较小,只需考虑版本问题。

Q:请问MySQL部署数据应用能承载多大数据量,响应速度如何?

A:我们一个项目中,采用读写分离的MySQL架构,几千万的数据表,及时查询没问题,这也要看硬件配置与数据索引的建立等。

Q:有些传统公司,有些软件设备是以序列号安装使用的,所以这一块融入PaaS平台是不是不太可能?

A:比较困难,另外还有一个问题是License限制的问题,在弹性架构中也比较难。

Q:请问架构改造会不会导致应用要重新开发?

A:会,从IOE架构到x86架构,从x86物理机到虚拟机到Docker,应用需要以越来越小的模块化分布式部署,也就是说逐步向微服务化过渡。

Q:为什么Kubernetes和Mesos要一起用呢,考虑点在哪里?

A:针对单个应用Docker化,我们开始的选型定位在Kubernetes,主要考虑了POD的应用场景更类似虚拟机,另外Kubernetes的模块比较丰富,像负载均衡、服务发现等已经成熟,后来用Mesos是因为需要把大数据之类的应用进行整合。需要Kubernetes/Spark on Mesos。

Q:开发周期过长或者客户开发能力弱会导致整个架构流产 有配套的应用改造方案吗?

A:对传统企业而言,一开始就搭建一个大而全PaaS方案是不现实的,我们推荐从某一个典型应用做起。我们针对交易性应用、分布式应用、批处理应用等应用都有配套改造方案。

Q:Mesos使用集中式存储和分布式存储效率上有什么不同吗?

A:这个看应用,集中式存储在集群中应用时,如果针对单一与应用划分Volume,性能会好一些,如果是分布式应用,比如MR类的应用,分布式存储反而会好。

Q:容器弹性伸缩策略具体怎么考虑的,CPU?

A:CPU、内存、IO、用户连接数等都可以作为弹性伸缩的策略依据。


相关文档推荐

离散制造破局之道主数据管理平台重构.PDF

1742450737 詹慧超 4.6MB 37页 积分6

大模型时代的异构计算平台.PDF

1740983483  1.78MB 39页 积分5

飞速AI智能应用开发平台.PDF

1740097509  6.56MB 28页 积分5

基于LLM的智能数据分析平台在腾讯的落地实践.PDF

1738713220 谭云志 5.29MB 22页 积分6

互联网广告场景下的大模型应用挑战与实践.PDF

1737428214 陈权 6.96MB 18页 积分5

基于StarRocks和Cloudera搭建湖仓一体平台.PDF

1737425869 韩军 3.97MB 29页 积分6

基于StarRocks构建Xihu湖仓一体平台实践.PDF

1737424746 吴歧诗 2.57MB 24页 积分5

B站一站式大数据集群管理平台.PDF

1737421412 刘明刚 1.37MB 30页 积分6

相关文章推荐