本文以淘宝为例,先容从一百到千万级并发情形下做事端架构的演进过程,同时列举出每个演进阶段碰着的干系技能,让大家对架构的演进有一个整体的认知,末了汇总一些架构的设计原则。
2.基本观点在先容架构之前,为了避免读者对架构设计中的一些观点不理解,下面对接个最根本的观点进行先容:
分布式系统中的对个模块在不同做事器上支配,即可成为分布式系统,如Tomcat和数据库分别支配在不同的做事器上,或者两个相同的Tomcat分别支配在不同的做事器上。

高可用系统中部分节点失落效时,其他节点可以接替他连续供应做事,则可认为系统具有高可用性。
集群:一个特定领域的软件支配在多台做事器上并作为一个整体供应一类做事,这个整体成为集群;如Zookeeper中的Master和Slave分别支配在多台做事器上,共同组成一个整体供应几种配置做事。在常见的集群中,客户端每每能链接任意一个节点得到做事,并且当集群中一个节点掉线时,其他节点每每能够接替他连续供应做事,这时候解释集群具有高可用性。
负载均衡:要求发送到系统时通过某些办法吧要求均匀的分发到多个节点上,使系统中每个节点能够均匀的出来要求负载,则认为系统是负载均衡的。
正向代理和反向代理:系统内部要访问外部网络时,统一通话一个代理做事器吧要求转发出去,在外部网络来看便是代理做事器发起的访问,此时期理做事器实现的是正向代理;当外部要求进入系统时,代理做事器吧该要求转发到系统中某台做事器上,对外部要求来说,与之交互的只有代理做事器,此时期理做事器实现的是反向代理。大略来说,正向代理便是代理做事器代替系统内部来访问外部网络的过程,反向代理便是外部系统要求访问系统时通过代理做事器转发到内部做事器的过程。
3.架构演进3.1.单机架构
以淘宝为例,在网站最初期,运用数量与用户数量都较少,可以吧Tomcat和数据库支配在同一台做事器上。浏览器往www.taobao.com发起要求时,首先经由DNS做事器(域名系统)吧域名解析转换为实际IP地址10.102.1.4,浏览器转而访问该IP对应的Tomcat。
随着用户的增长,Tomcat和数据库之间竞争资源,单机性能不敷支撑业务。
3.2.第一次演进:Tomcat与数据库分开支配Tomcat和数据库分别独自分开支配,独占做事器资源,显著提高各自性能。
随着用户数量增长,并发的读写数据库成为瓶颈。
3.3.第二次演进:引入本地缓存和分布式缓存在Tomcat同做事器上或同JVM中增加本地缓存,并在外部增加分布式缓存,缓存热门商品信息或者热门商品的html页面等。通过缓存能把绝大多数要求在读写数据库前拦截掉,大大降落数据库压力。个中涉及的技能包括:利用memcached作为本地缓存,利用Redis作为分布式缓存,还会涉及缓存的同等性、缓存穿透/击穿、缓存雪崩、热点数据几种失落效等问题。
缓存抗住了大部分的访问要求,随着用户量的增加,并发压力紧张落在单机的Tomcat上,相应逐渐变慢。
3.4.第三次演进:引入反向代理实现负载均衡
在多台做事器上分别支配Tomcat,利用反向代理软件(nginx)把要求均匀分发到每个Tomcat 中,此处讲述每个Tomcat 最多支撑100个并发,Nginx最多支持50000个并发,那么理论上Nginx吧要求分发到500个Tomcat上就能抗住50000个并发。个中涉及技能包括:Nginx,HAProxy,两者都是事情在网络第七层的反向代理软件,紧张支持http协议,还会涉及session共享,文件上传下载的问题。
反向代理使运用做事器可支持的并发数大大增加,但并发量的增长也意味着更多的要求穿透到数据库,单机的数据库成为瓶颈。
3.5.第四次演进:数据库读写分离
把数据库划分为读库和写库,读库可以有多个,通过同步机制吧写库的数据同步到读库。对应须要查询最新写入数据场景,可通过在缓存中多写一份,通过缓存获取最新数据。个中涉及技能包括:Mycat,他是数据库中间件,可通过他来组织数据库的分离读写和分库分表,客户端通过他来访问下层数据库,还会涉及数据库同步,数据同等性的问题。
业务逐渐变多,不同业务之间的访问量差距较大,不同业务将直接竞争数据库资源,相互影响性能。
3.6.第五次演进:数据库按业务分库
把不同业务的数据库保存到不同的数据库中,使业务之间的资源竞争降落,对付访问量大的业务,可支配更多的做事器来支撑。这样同时导致跨业务的表无法直接关联剖析,须要通过其他路子办理,但这不是本文重点,有兴趣的可自行搜索办理方案。
随着用户的增长,单机的写库会逐渐达到性能瓶颈。
3.7.第六次演进:大表拆分为小表比如针对评论数据,可按照商品ID进行hash,路由到对应的表中存储;针对于出记录,可按照小时创建表,每个小时表连续拆分为小表,利用用户ID或记录编号来路由数据。只要实时操作的表数据量足够小,要求能够足够均匀的分发到多台做事器上的小表,那数据库就能通过水平扩展的办法来提高性能。个中前面提到的Mycat也支持在大表拆分为小表情况下的访问掌握。
这种做法显著的增加了数据库运维的难度,对DBA的哀求较高。数据库设计到这种构造时,已经可以称为分布式数据库,但是这只是一个逻辑的数据库整体,数据库里不同的组成部分是由不同的组件单独来实现的,如分库分表的管理和要求分发,由Mycat实现,SQL的解析由单机的数据库实现,读写分离可能由网关和行列步队来实现,查询结果的汇总可能由数据库接口层来实现等等,这种架构实在是MPP(大规模并行处理)架构的一类实现。
目前开源和商用都已经有不少MPP数据库,开源中比较盛行的有Greenplum、TiDB、Postgresql XC、HAWQ等,商用的如南大通用的GBase、睿帆科技的雪球DB、华为的LibrA等等,不同的MPP数据库的侧重点也不一样,如TiDB更侧重于分布式OLTP场景,Greenplum更侧重于分布式OLAP场景,这些MPP数据库基本都供应了类似Postgresql、Oracle、MySQL那样的SQL标准支持能力,能把一个查询解析为分布式的实行操持分发到每台机器上并行实行,终极由数据库本身汇总数据进行返回,也供应了诸如权限管理、分库分表、事务、数据副本等能力,并且大多能够支持100个节点以上的集群,大大降落了数据库运维的本钱,并且使数据库也能够实现水平扩展。
数据库和Tomcat都能够水平扩展,可支撑的并发大幅提高,随着用户数的增长,终极单机的Nginx会成为瓶颈
3.8、第七次演进:利用LVS或F5来使多个Nginx负载均衡由于瓶颈在Nginx,因此无法通过两层的Nginx来实现多个Nginx的负载均衡。图中的LVS和F5是事情在网络第四层的负载均衡办理方案,个中LVS是软件,运行在操作系统内核态,可对TCP要求或更高层级的网络协议进行转发,因此支持的协议更丰富,并且性能也远高于Nginx,可假设单机的LVS可支持几十万个并发的要求转发;F5是一种负载均衡硬件,与LVS供应的能力类似,性能比LVS更高,但价格昂贵。由于LVS是单机版的软件,若LVS所在做事器宕机则会导致全体后端系统都无法访问,因此须要有备用节点。可利用keepalived软件仿照出虚拟IP,然后把虚拟IP绑定到多台LVS做事器上,浏览器访问虚拟IP时,会被路由看重定向到真实的LVS做事器,当主LVS做事器宕机时,keepalived软件会自动更新路由器中的路由表,把虚拟IP重定向到其余一台正常的LVS做事器,从而达到LVS做事器高可用的效果。
此处须要把稳的是,上图中从Nginx层到Tomcat层这样画并不代表全部Nginx都转发要求到全部的Tomcat,在实际利用时,可能会是几个Nginx下面接一部分的Tomcat,这些Nginx之间通过keepalived实现高可用,其他的Nginx接其余的Tomcat,这样可接入的Tomcat数量就能成倍的增加。
由于LVS也是单机的,随着并发数增长到几十万时,LVS做事器终极会达到瓶颈,此时用户数达到千万乃至上亿级别,用户分布在不同的地区,与做事器机房间隔不同,导致了访问的延迟会明显不同.
3.9、第八次演进:通过DNS轮询实现机房间的负载均衡在DNS做事器中可配置一个域名对应多个IP地址,每个IP地址对应到不同的机房里的虚拟IP。当用户访问www.taobao.com时,DNS做事器会利用轮询策略或其他策略,来选择某个IP供用户访问。此办法能实现机房间的负载均衡,至此,系统可做到机房级别的水平扩展,千万级到亿级的并发量都可通过增加机房来办理,系统入口处的要求并发量不再是问题。
随着数据的丰富程度和业务的发展,检索、剖析等需求越来越丰富,单单依赖数据库无法办理如此丰富的需求
3.10、第九次演进:引入NoSQL数据库和搜索引擎等技能当数据库中的数据多到一定规模时,数据库就不适用于繁芜的查询了,每每只能知足普通查询的场景。对付统计报表场景,在数据量大时不一定能跑出结果,而且在跑繁芜查询时会导致其他查询变慢,对付全文检索、可变数据构造等场景,数据库天生不适用。因此须要针对特定的场景,引入得当的办理方案。如对付海量文件存储,可通过分布式文件系统HDFS办理,对付key value类型的数据,可通过HBase和Redis等方案办理,对付全文检索场景,可通过搜索引擎如ElasticSearch办理,对付多维剖析场景,可通过Kylin或Druid等方案办理。
当然,引入更多组件同时会提高系统的繁芜度,不同的组件保存的数据须要同步,须要考虑同等性的问题,须要有更多的运维手段来管理这些组件等。
引入更多组件办理了丰富的需求,业务维度能够极大扩充,随之而来的是一个运用中包含了太多的业务代码,业务的升级迭代变得困难
3.11、第十次演进:大运用拆分为小运用按照业务板块来划分运用代码,使单个运用的职责更清晰,相互之间可以做到独立升级迭代。这时候运用之间可能会涉及到一些公共配置,可以通过分布式配置中央Zookeeper来办理。
不同运用之间存在共用的模块,由运用单独管理会导致相同代码存在多份,导致公共功能升级时全部运用代码都要随着升级
3.12、第十一次演进:复用的功能抽离成微做事如用户管理、订单、支付、鉴权等功能在多个运用中都存在,那么可以把这些功能的代码单独抽取出来形成一个单独的做事来管理,这样的做事便是所谓的微做事,运用和做事之间通过HTTP、TCP或RPC要求等多种办法来访问公共做事,每个单独的做事都可以由单独的团队来管理。此外,可以通过Dubbo、SpringCloud等框架实现做事管理、限流、熔断、降级等功能,提高做事的稳定性和可用性。
不同做事的接口访问办法不同,运用代码须要适配多种访问办法才能利用做事,此外,运用访问做事,做事之间也可能相互访问,调用链将会变得非常繁芜,逻辑变得混乱
3.13、第十二次演进:引入企业做事总线ESB屏蔽做事接口的访问差异
通过ESB统一进行访问协议转换,运用统一通过ESB来访问后端做事,做事与做事之间也通过ESB来相互调用,以此降落系统的耦合程度。这种单个运用拆分为多个运用,公共做事单独抽取出来来管理,并利用企业总线来解除做事之间耦合问题的架构,便是所谓的SOA(面向做事)架构,这种架构与微做事架构随意马虎稠浊,由于表现形式十分相似。个人理解,微做事架构更多是指把系统里的公共做事抽取出来单独运维管理的思想,而SOA架构则是指一种拆分做事并使做事接口访问变得统一的架构思想,SOA架构中包含了微做事的思想。
业务不断发展,运用和做事都会不断变多,运用和做事的支配变得繁芜,同一台做事器上支配多个做事还要办理运行环境冲突的问题,此外,对付如大匆匆这类须要动态扩缩容的场景,须要水平扩展做事的性能,就须要在新增的做事上准备运行环境,支配做事等,运维将变得十分困难
3.14、第十三次演进:引入容器化技能实现运行环境隔离与动态做事管理
目前最盛行的容器化技能是Docker,最盛行的容器管理做事是Kubernetes(K8S),运用/做事可以打包为Docker镜像,通过K8S来动态分发和支配镜像。Docker镜像可理解为一个能运行你的运用/做事的最小的操作系统,里面放着运用/做事的运行代码,运行环境根据实际的须要设置好。把全体“操作系统”打包为一个镜像后,就可以分发到须要支配干系做事的机器上,直接启动Docker镜像就可以把做事起起来,使做事的支配和运维变得大略。
在大匆匆的之前,可以在现有的机器集群上划分出做事器来启动Docker镜像,增强做事的性能,大匆匆过后就可以关闭镜像,对机器上的其他做事不造成影响(在3.14节之前,做事运行在新增机器上须要修正系统配置来适配做事,这会导致机器上其他做事须要的运行环境被毁坏)。
利用容器化技能后做事动态扩缩容问题得以办理,但是机器还是须要公司自身来管理,在非大匆匆的时候,还是须要闲置着大量的机器资源来应对大匆匆,机器自身本钱和运维本钱都极高,资源利用率低
3.15、第十四次演进:以云平台承载系统
系统可支配到公有云上,利用公有云的海量机器资源,办理动态硬件资源的问题,在大匆匆的韶光段里,在云平台中临时申请更多的资源,结合Docker和K8S来快速支配做事,在大匆匆结束后开释资源,真正做到按需付费,资源利用率大大提高,同时大大降落了运维本钱。
所谓的云平台,便是把海量机器资源,通过统一的资源管理,抽象为一个资源整体,在之上可按需动态申请硬件资源(如CPU、内存、网络等),并且之上供应通用的操作系统,供应常用的技能组件(如Hadoop技能栈,MPP数据库等)供用户利用,乃至供应开拓好的运用,用户不须要关系运用内部利用了什么技能,就能够办理需求(如音视频转码做事、邮件做事、个人博客等)。在云平台中会涉及如下几个观点:
IaaS:根本举动步伐即做事。对应于上面所说的机器资源统一为资源整体,可动态申请硬件资源的层面;
PaaS:平台即做事。对应于上面所说的供应常用的技能组件方便系统的开拓和掩护;
SaaS:软件即做事。对应于上面所说的供应开拓好的运用或做事,按功能或性能哀求付费。
至此,以上所提到的从高并发访问问题,到做事的架构和系统履行的层面都有了各自的办理方案,但同时也该当意识到,在上面的先容中,实在是故意忽略了诸如跨机房数据同步、分布式事务实现等等的实际问题,这些问题往后有机会再拿出来单独谈论
4、架构设计总结4.1、架构的调度是否必须按照上述演化路径进行?
不是的,以上所说的架构演化顺序只是针对某个侧面进行单独的改进,在实际场景中,可能同一韶光会有几个问题须要办理,或者可能先达到瓶颈的是其余的方面,这时候就该当按照实际问题实际办理。如在政府类的并发量可能不大,但业务可能很丰富的场景,高并发就不是重点办理的问题,此时优先须要的可能会是丰富需求的办理方案。
4.2、对付将要履行的系统,架构该当设计到什么程度?对付单次履行并且性能指标明确的系统,架构设计到能够支持系统的性能指标哀求就足够了,但要留有扩展架构的接口以便不备之需。对付不断发展的系统,如电商平台,应设计到能知足下一阶段用户量和性能指标哀求的程度,并根据业务的增长不断的迭代升级架构,以支持更高的并发和更丰富的业务。
4.3、做事端架构和大数据架构有什么差异?所谓的“大数据”实在是海量数据采集洗濯转换、数据存储、数据剖析、数据做事等场景办理方案的一个统称,在每一个场景都包含了多种可选的技能,如数据采集有Flume、Sqoop、Kettle等,数据存储有分布式文件系统HDFS、FastDFS,NoSQL数据库HBase、MongoDB等,数据剖析有Spark技能栈、机器学习算法等。总的来说大数据架构便是根据业务的需求,整合各种大数据组件组合而成的架构,一样平常会供应分布式存储、分布式打算、多维剖析、数据仓库、机器学习算法等能力。而做事端架构更多指的是运用组织层面的架构,底层能力每每是由大数据架构来供应。
4.4、有没有一些架构设计的原则?N+1设计:统中的每个组件都应做到没有单点故障;
回滚设计:确保系统可以向前兼容,在系统升级时应能有办法回滚版本;
禁用设计::该当供应掌握详细功能是否可用的配置,在系统涌现故障时能够快速下线功能;
监控设计:在设计阶段就要考虑监控的手段;
多活数据中央设计:若系统须要极高的高可用,应考虑在多地履行数据中央进行多活,至少在一个机房断电的情形下系统依然可用;
采取成熟的技能:刚开拓的或开源的技能每每存在很多隐蔽的bug,出了问题没有商业支持可能会是一个灾害;
资源隔离设计:应避免单一业务占用全部资源;
架构应能水平扩展:系统只有做到能水平扩展,才能有效避免瓶颈问题;
非核心则购买:非核心功能若须要占用大量的研发资源才能办理,则考虑购买成熟的产品;
利用商用硬件:商用硬件能有效降落硬件故障的机率;
快速迭代:系统该当快速开拓小功能模块,尽快上线进行验证,早日创造问题大大降落系统交付的风险;
无状态设计:做事接口该当做成无状态的,当前接口的访问不依赖于接口上次访问的状态。
原文地址:https://segmentfault.com/a/1190000018626163