分布式架构演进过程

分布式架构演进过程1.基本概念1:分布式2:高可用3:集群4:负载均衡5:正向代理和反向代理2.架构演进2.1单机架构2.2第一次演进:Tomcat与数据库分开部署2.3第二次演进:引入本地缓存和分布式缓存2.4第三次演进:引入反向代理实现负载均衡2.5第四次演进:数据库读写分离2.6第五次演进:数据库按业务分库2.7第六次演进:把大表拆分为小表2.8第七次演进:使用LVS或F5来使多个Nginx...

分布式架构演进过程

分布式架构演进过程

    • 1.基本概念
      • 1 :分布式
      • 2 :高可用
      • 3 :集群
      • 4 :负载均衡
      • 5 :正向代理和反向代理
    • 2.架构演进
      • 2.1 单机架构
      • 2.2 第一次演进 :Tomcat与数据库分开部署
      • 2.3 第二次演进 :引入本地缓存和分布式缓存
      • 2.4 第三次演进 :引入反向代理实现负载均衡
      • 2.5 第四次演进 :数据库读写分离
      • 2.6 第五次演进 :数据库按业务分库
      • 2.7 第六次演进 :把大表拆分为小表
      • 2.8 第七次演进 :使用LVS或F5来使多个Nginx负载均衡
      • 2.9 第八次演进 :通过DNS轮询实现机房间的负载均衡
      • 2.10 第九次演进 :引入NoSQL数据库和搜索引擎等技术
      • 2.11 第十次演进 :大应用拆分为小应用
      • 2.12 第十一次演进 :复用的功能抽离成微服务
      • 2.13 第十二次演进 :引入企业服务总线ESB屏蔽服务接口的访问差异
      • 2.14 第十三次演进 :引入容器化技术实现运行环境隔离与动态服务管理
      • 3.15 第十四次演进 :以云平台承载系统
    • 3. 架构设计总结

1.基本概念

在介绍架构之前,为了避免部分读者对架构设计中的一些概念不了解,下面对几个最基础的概念进行介绍:

1 :分布式

系统中的多个模块在不同的服务器上部署,即可称为分布式系统,如Tomcat和数据库分别部署在不同的服务器上,或两个相同功能的Tomcat分别部署在不同的服务器上。

2 :高可用

系统中部分节点失效时,其他节点能够接替它继续提供服务,则可认为系统具有高可用性。

3 :集群

一个特定领域的软件部署在多台服务器上并作为一个整体提供一类服务,这个整体称为集群。如Zookeeper中的Master和Slave分别部署在多台服务 器上,共同组成一个整体提供集中配置服务。在常见的集群中,客户端往往能够连接任意一个节点获得服务,并且当集群中一个节点掉线时,其他节点  往往能够自动的接替它继续提供服务,这时候说明集群具有高可用性。

4 :负载均衡

请求发送到系统时,通过这些方式把请求均匀分发到多个节点上,使系统中每个节点能够均匀的处理请求负载,则可认为系统是负载均衡的。

5 :正向代理和反向代理

系统内部要访问外部网络时,统一通过一个代理服务器把请求转发出去,在外部网络看来就是代理服务器发起的访问,此时代理服务器实现的是正向代理;当外部请求进入系统时,代理服务器把该请求转发到系统中的某台服务器上,对外部请求来说,与之交互的只有代理服务器,此时代理服务器

实现的是反向代理。简单来说,正向代理是代理服务器代替系统内部来访问外部网络的过程,反向代理是外部请求访问系统时通过代理服务器转发到内部服务器的过程。

2.架构演进

2.1 单机架构

在这里插入图片描述
以淘宝作为例子。在网站最初时,应用数量与用户数都较少,可以把Tomcat和数据库部署在同一台服务器上。浏览器往
www.taobao.com发起请求时,首先经过DNS服务器(域名系统)把域名转换为实际IP地址10.102.4.1,浏览器转而访问该
IP对应的Tomcat。
随着用户数的增长,Tomcat和数据库之间竞争资源,单机性能不足以支撑业务。

2.2 第一次演进 :Tomcat与数据库分开部署

在这里插入图片描述
Tomcat和数据库分别独占服务器资源,显著提高两者各自性能。
随着用户数的增长,并发读写数据库称为瓶颈

2.3 第二次演进 :引入本地缓存和分布式缓存

在这里插入图片描述
在Tomcat同服务器上或同JVM中增加本地缓存,并在外部增加分布式缓存,缓存热门商品信息或热门商品的html页面等。通
过缓存能把绝大多数请求在读写数据库前拦截掉,大大降低数据库压力。其中涉及的技术包括 :使用memcached作为本地缓
存,使用Redis作为分布式缓存,还会涉及缓存一致性、缓存穿透/击穿、缓存雪崩、热点数据集中失效等问题。
缓存抗住了大部分的访问请求,随着用户数的增长,并发压力主要落在单机的Tomcat上,响应逐渐变慢

2.4 第三次演进 :引入反向代理实现负载均衡

在这里插入图片描述
在多台服务器上分别部署Tomcat,使用反向代理软件(Nginx)把请求均匀分发到每个Tomcat中。此处假设Tomcat最多
支持100个并发,Nginx最多支持50000个并发,那么理论上Nginx把请求分发到500个Tomcat上,就能抗住50000个并发。
其中涉及的技术包括 :Nginx、HAProxy,两者都是工作在网络第七层的反向代理软件,主要支持http协议,还会涉及session
共享、文件上传下载的问题。
反向代理使得应用服务器可支持的并发量大大增加,但并发量的增长也意味着更多请求穿透到数据库,单机的数据库最终
成为瓶颈。

2.5 第四次演进 :数据库读写分离

在这里插入图片描述
把数据库划分为读库和写库,读库可以有多个,通过同步机制把写库的数据同步到读库,对于需要查询最新写入数据场景,可
通过在缓存中多写一份,通过缓存获得最新数据。其中涉及的技术包括:Mycat,它是数据库中间件,可通过它来组织数据库
的分离读写和分库分表,客户端通过它来访问下层数据库,还会涉及数据同步,数据一致性的问题。
业务逐渐变多,不同业务之间的访问量差距较大,不同业务直接竞争数据库,相互影响性能。

2.6 第五次演进 :数据库按业务分库

在这里插入图片描述
把不同业务的数据保存到不同的数据库中,使业务之间的资源竞争降低,对于访问量大的业务,可以部署更多的服务器来
支持。这样同时导致业务的表无法直接做关联分析,需要通过其他途径来解决。
随着用户数的增长,单机的写库会逐渐会达到性能瓶颈。

2.7 第六次演进 :把大表拆分为小表

在这里插入图片描述
比如针对评论数据,可按照商品ID进行hash,路由到对应的表中存储;针对支付记录,可按照小时创建表,每个小时表继续
拆分为小表,使用用户ID或记录编号来路由数据。只要实时操作的表数据量足够小,请求能够足够均匀的分发到多台服务器
上的小表,那数据库就能通过水平扩展的方式来提高性能。其中前面提到的MyCat也支持在大表拆分为小表情况下的访问
控制。
这种做法显著的增加了数据库运维的难度,对DBA的要求较高。数据库设计到这种结构时,已经可以称为分布式数据库,但
是这只是一个逻辑的数据库整体,数据库里不同的组成部分是由不同的组件单独来实现的,如分库分表的管理和请求分发,
由Mycat实现,SQL的解析由单机的数据库实现,读写分离可能由网关和消息队列来实现,查询结构的汇总可能由数据库接口
层来实现等等,这种架构其实是MPP(大规模并行处理)架构的一类实现。
目前开源和商用的已经有不少MPP数据库,开源中比较流行的有Greenplum、TiDB、Postgresql XC、HAWQ等,商用的如
南大通用的GBase、睿帆科技的雪球DB、华为的LibrA等等,不同的MPP数据库的侧重点也不一样,如TiDB更侧重于分布式
OLTP场景,Greenplum更侧重于分布式OLAP场景,这些MPP数据库基本都提供了类似Postgresql、Oracle、MySQL那样
的SQL标准支持能力,能把一个查询解析为分布式的执行计划分发到每台机器上并行执行,最终由数据库本身汇总数据进行
返回,也提供了诸如权限管理、分库分表、事物、数据副本等能力,并且大多能够支持100个节点以上的集群,大大降低了
数据库运维的成本,并且使数据库也能够实现水平扩展。
数据库和Tomcat都能够水平扩展,可支撑的并发大幅提高,随着用户数的增长,最终单机的Nginx会成为瓶颈。

2.8 第七次演进 :使用LVS或F5来使多个Nginx负载均衡

在这里插入图片描述
由于瓶颈在Nginx,因此无法通过两层的Nginx来实现多个Nginx的负载均衡。图中的LVS和F5是工作在网络第四层的负载均
衡解决方案,其中LVS是软件,运行在操作系统内核态,可对TCP请求或更高层级的网络协议进行转发,因此支持的协议
更丰富,并且性能也远高于Nginx,可假设单机的LVS可支持几十万个并发的请求转发;F5是一种负载均衡硬件,与LVS提
供的能力类似,性能比LVS更高,但价格昂贵。由于LVS是单机版的软件,若LVS所在服务器宕机则会导致整个后端系统都
无法访问,因此需要有备用节点。可使用keepalived软件模拟出虚拟IP,然后把虚拟IP绑定到多台LVS服务器上,浏览器
访问虚拟IP时,会被路由器重定向到真实的LVS服务器,当主LVS服务器宕机时,keepalived软件会自动更新路由器中的
路由表,把虚拟IP重定向到另外一台正常的LVS服务器,从而达到LVS服务器高可用的效果。
此处需要注意的是,上图中从Nginx层到Tomcat层这样画并不代表全部Nginx都转发请求到全部的Tomcat,在实际使用时,
可能会是几个Nginx下面接一部分的Tomcat,这些Nginx之间通过keepalived实现高可用,其他的Nginx接另外的Tomcat,
这样可接入的Tomcat数量就能成倍的增加。
由于LVS也是单机的,随着并发数增长到几十万时,LVS服务器最终会达到瓶颈,此时用户数达到千万甚至上亿级别,
用户分布在不同的地区,与服务器机房距离不同,导致了访问的延迟会明显不同。

2.9 第八次演进 :通过DNS轮询实现机房间的负载均衡

在这里插入图片描述
在DNS服务器中可配置一个域名对应多个IP地址,每个IP地址对应到不同的机房里的虚拟IP。当用户访问www.taobao.com
时,DNS服务器会使用轮询策略或其他策略,来选择每个IP供用户访问。此方式能实现机房间的负载均衡,至此,系统可
做到机房级别的水平扩展,千万级到亿级的并发量都可通过增加机房来解决,系统入口处的请求并发量不再是问题。
随着数据的丰富程度和业务的发展,检索、分析等需求越来越丰富,单单依靠数据库无法解决如此丰富的需求。

2.10 第九次演进 :引入NoSQL数据库和搜索引擎等技术

https://www.guoxiongfei.cn/cntech/18373.html