高并发系统分析与大型互联网架构介绍
内容介绍
在本文带你了解高并发系统的应用场景、市场需求以及目前市面上比较成熟的大型互联网的系统架构基线,初步认识高并发,了解一些复杂业务场景需求下的高并发定制化应对策略,以及一些常见的高并发环境下的解决方案。
知识点
- 大型系统的技术基石-高并发
- 系统分析原则
- 系统设计要点
- 大型系统架构设计
大型系统的技术基石-高并发
高并发技术指通过设计来保证系统能够同时并行处理很多的请求。
高并发是一个广义的概念,可以包含架构设计、SOA 面向服务的架构、分布式、微服务、数据处理、多线程等很多细分领域。
例如,电商的秒杀活动会带来非常大的高并发请求,为了避免超额的高并发请求冲垮电商的服务器,就需要对所有的并发请求进行处理。
一般而言,可以先通过验证码和 IP 限制等手段拦截非法的用户请求,然后搭建服务集群,将合法的并发请求进行分流。
之后还可以在服务器内部设置最大的连接数、最大并发数等服务参数,并通过消息队列对海量的并发请求进行削峰填谷处理。
为了让数据库稳定地处理高并发请求,还需要通过缓存中间件减少用户数据库请求次数,并通过服务降级等策略减轻高并发峰值期间对系统的访问压力。
最后,为了在极端情况下仍然能够保障数据的安全性能,还需要搭建数据库集群并设置合理的隔离机制。
系统分析原则
开发大型系统时,我们除了根据业务需求实现相应的功能模块外,还需要从高性能和高可用等多个维度来思考如何对系统进行设计,
遵循高并发、容错性和可扩展等多个设计分析原则是我们重要需要考虑的。
高并发原则
保证项目在高并发的环境下正常运行可以通过垂直扩展和水平扩展来实现,我们简述一下垂直和水平扩展。
垂直扩展:
直接通过提升单机的性能的层面去升级硬件或者软件技术,可以用一个比喻来说明,比如当一个小牛无法拉动货物的时候,就可以将小牛换成体能强壮的大牛。
水平扩展:
通过增加服务器的节点个数来横向扩展系统的性能,这也是分布式的一个说明方式,沿用上例,当一头牛无法拉动货物的时候,就可以把货物进行拆分,然后用多头牛去拉这些货物,或者用多头牛一起去拉这批货物。
对比上面这两种方案,我们可以很显然的发现,垂直扩展是最快的方法,只需要购买性能更加强大的硬件设备就可以迅速地提升性能,但是单机的能力还是有限的,如果货物很多的话,比如我们用一座山来类比,一头牛再厉害也是拉不动一座小山的,因此,大型互联网系统对于高并发的最终解决方案是水平扩展。
从技术层面讲,可以使用缓存来减少对数据库的访问,用熔断或者降级提高响应速度,通过流量削峰在项目的入口限流,先拆分项目或者使用微服务技术快速构建功能模块,然后再用 Spring Cloud 或 Dubbo 等来统一治理这些模块,通过中间件搭建基于读写分离的高可用的数据库集群等。在系统的测试阶段还可以使用 JProfiler 等工具进行性能分析,寻找性能瓶颈,从而有针对性地优化。
衡量高并发的常见指标包括:
响应时间、
吞吐量或 QPS(Query per Second,每秒查询率)、
并发用户数等。
容错原则
如果高并发使用不当的话,就容易造成各种逻辑混乱的情景,因此我们就需要对各种潜在的问题做好预案,也就是要确保系统要拥有一定的容错性。比如使用 Spring Boot 和 Redis 来实现分布式缓存,使用 MQ 实现分布式场景下的事务一致性,使用 MQ、PRG 模式、Token 等解决重复提交的问题,使用“去重表”实现操作的幂等性,使用集群或 Zookeeper 解决失败迁移的问题。
在分布式系统中,网络时延也是不可避免的,一般情况可以在长连接的情况下通过“心跳监测机制”来处理,我们下面简单阐述一下心跳监测机制。
在正常的网络环境下面,当用户点击了手机上某个 App 的“退出”按钮后,就会调用服务端的 exit()等退出方法,从而注销掉用户的状态,如果用户的手机信号中断、关机或者处于飞行模式话该如何判断用户的状态呢?除了通过 Session 有效时长来进行判断外,就可以通过心跳检测来判断,客户端每隔 60s 向服务端发送一次心跳,如果服务端能够接收到就说明客户端的状态正常,如果服务端没有接收到就等待客户端下一个 60s 发来的心跳,如果连续 N 次都没有接收到来自某个客户端的心跳就可以认定此客户端已经断线了。
为了进一步提高系统的容错性,还可以预先采用“隔离的手段”,对于秒杀等可预知时间的流量暴增情况,就可以提前将秒杀隔离成独立的服务,防止秒杀带来的流量问题影响到系统中的其他服务,如果预估的流量增加不是很多,也可以使用多级缓存来解决高并发问题。
CAP 原则
分布式系统包含了多个节点,多个节点的数据之间应该如何实现同步,在数据同步的时候需要考虑哪些因素呢?CAP 原则是理解和设计分布式系统的基础,包含了 C(Consistency)一致性、A(Availability)可用性、P(Partition tolerance)分区容错性三个部分。
一致性 C:在同一时刻所有节点中的数据都是相同的,当客户端发出读请求之后,立刻能从分布式的所有节点中读取到相同的数据。
可用性 A:在合理的时间范围内,系统能够提供正常的服务,不会出现异常或者超时等不可用的现象。
分区容错性 P:当分布式系统中的一个或者多个节点发生网络故障(网络分区),从而脱离整个系统的网络环境时,系统仍然能够提供可靠的服务,也就是说,当部分节点故障时,系统还是可以正常运行的。
著名的 CAP 原则是在任何一个分布式系统中,C、A、P 三者不可兼得,最多只能同时满足两个。为什么这么说呢,我们可以看一下下面的这个图。
如果客户端发出了写的请求,成功更新了服务 A,但由于网络故障没有更新服务 B,那么下一次客户端的读请求如何处理呢?此时要么牺牲数据的一致性,要么在设计阶段就严格要求数据必须得一致,当像任何一个服务中写失败的时候,就撤销全部的写操作并提示失败,即牺牲了写操作的可用性。
一般而言分布式肯定会遇到网络问题的,分区容错性P是最基本的要求,因此在实际设计的时候往往是在一致性C和可用性A之间根据具体的业务来权衡。
幂等性原则
上面提到了网络问题,网络问题会对用户的调用服务的次数造成影响,我们看下面的由于返回失败而导致用户重复支付的例子:
在分布式系统中,如果模块 A(如商品服务)已经成功调用了模块 B(如支付服务),但是由于网络故障等问题造成模块 B 在返回时出错,就可能导致用户因为无法感知模块 A 是否成功执行从而多次主动执行模块 A,造成模块 A 的重复执行。例如,当用户在购买商品你时,如果在点击“支付”按钮之后不能看到“支付成功”等提示,就可能再次点击“支付”按钮造成用户多次支付的异常行为。然而实际上,“支付”操作在用户第一次点击时就已经成功执行了,只是在给用户返回结果时出了错。所以我们需要考虑某个触发的动作会不会被重复执行的问题,使用幂等性原则就是对调用服务的次数进行的一种限制,即无论对某个服务提供的接口调用多次或者是一次,其结果都是相同的。
对于分布式或者微服务系统,为了实现幂等性,可以在写操作之前,先通过执行读操作来实现。还是以上面提到的案例为例,当商品服务调用支付服务时,严格按照如下执行就可以实现幂等性:
- 读操作:查询支付服务中的支付状态(已支付或未支付)。
- 在“去重表”中查询‘“1”中的 ID 是否存在。
- 如果存在,直接返回结果,如果不存在,再执行核心操作如支付,并将“1”中的 ID 存入“去重表”中,最后返回结果。
实现幂等性的方法还可以通过 CAS 算法、分布式锁、悲观锁等方式
特殊的是查询和删除是不会出现幂等性问题的,查询一次或者多次,删除一次或者多次的结果都是一样的。
除了幂等性外,还需要注意表单重复提交的问题,幂等性是由于网络等故障,用户不知道第一次操作是否成功,因此发送了多次重复的操作,意图在于确保第一次的操作成功,而表单重复提交是指用户已经看到了第一次操作成功的结果,但是由于误操作或者其他原因点击了“刷新页面”等功能按钮,导致多次发送相同的请求。可通过 Token 令牌机制、PRG 模式、数据库唯一约束等方法避免表单的重复提交问题。
可扩展原则
项目的规模会随着用户的数量的增加而增大,因此大型系统务必在设计的时候就要考虑到项目的扩展解决方案,可扩展原则要从项目架构、数据库设计、技术选型和编码规范等多方面考量。例如,我们可以使用面向接口、前后端分离以及模块化的编程风格,采用无状态化服务,使用高内聚低耦合的编程规范等,力争在设计时预留一些后期扩展时可能会使用到的接口,或者提前设计好项目扩展的解决方案。下面我们给大家列举了一些可扩展原则实现的具体措施:
- 定义项目插件的统一顶级接口,在扩展功能时使用方便扩展的集成自定义插件。
- 使用无状态化的应用服务,避免开发后期遇到 Session 共享等数据同步问题。
- 使用 HDFS 等分布式文件系统,在存储容量不足时迅速通过增加设备来扩容。
- 合理地设计了数据库的分库分表策略及数据异构方式,就能快速进行数据库扩容。
- 使用分布式或微服务架构,快速开发并增加新的功能模块。
如果在系统设计时就考虑了可扩展的各种手段,就能在系统想遇到瓶颈或业务需求改变时快速做出更改,从而大幅提高开发的效率。
可维护原则与可监控原则
一个设计优良的项目不仅能够加速项目的研发,而且还可以在项目竣工后提供良好的可维护性与可监控性,因此在系统的设计阶段,要考虑项目的可维护原则与可监控原则。
可维护原则是指系统在开发完毕后,维护人员能够方便地改进或者修复系统中存在的问题。可维护原则包含了可理解性、可修改性和可移植性等多方面因素。通常可以通过以下 5 个方面来实现项目的可维护原则。
- 项目的日志记录功能完善,易于追溯问题,统计操作的情况。
- 有 BugFree 等 Bug 管理工具。
- 有丰富的项目文档和注释。
- 统一的开发规范。例如变量名尽量做到见名知意、少用缩写、代码缩进规范、面向接口编程、编码与配置分离、适当地使用设计模式等。
- 使用模块化的编程模式。
可监控原则是指对系统中的流量、性能、服务、异常等情况进行实时的监控。理想的状态是既有仪表盘形状的图形化全局监控数据,又有基线型用于显示各个时间段的历史轨迹,还有一些关键业务的变动对比图(对比业务变更前后,用户流量的变动情况等)。
此外还需要对项目中的一些关键技术做性能监控,确保新技术的引入的确能带来性能的提升。
系统设计阶段提前规避问题
上面阐述了关于系统设计时的一些需要注意的原则,如果能够预先看到的话,就需要我们在设计层面提前解决,这样子就会给后期的开发带来很大的便捷。我们在这里简单给大家介绍几个景点的问题,如果不注意的话将会导致后期的开发工作十分艰难,甚至会造成“推倒重来”的情形。
Session 共享问题
在 Web 项目中,Session 是服务端用于保存客户端信息的重要对象。单系统中的 Session 对象可以直接保存在内存中,但是在分布式的或集群环境下,多个不同的节点就需要采取措施来共享 Session 对象,一般可以使用下面三种方式。
Session Replication
Session Replication 是指在客户端第一次发出请求后,处理该请求的服务端就会创建一个与之对应的 Session 对象,用于保存客户端的状态信息,之后为了让其他服务器也能保存一份此 Session 对象,就需要将此 Session 对象在各个服务端节点之间进行同步。
但是这个也会造成一定的问题就是严重的冗余,如果有多个用户在同时访问,那么每个服务节点中都会保存很多用户的 Session 对象。服务节点的个数越多,Session 冗余的问题就越严重,因此这个方式只适用于服务节点比较少的场景。
Session Sticky
Session Sticky 是通过 Nginx 等负载均衡工具对各个用户进行标记比如对 Cookie 进行标记,使每个用户在经过负载均衡工具之后都请求固定的服务节点。
客户端 A 和客户端 B 的请求都被分别转发到了不同的应用服务上面。因此各个服务中的 Session 就无需同步。但是这种做法也会有弊端,如果某个服务节点宕机,那么该节点上的所有 Session 对象都会丢失。
独立 Session 服务器
将系统中所有的 Session 对象都存放到一个独立的 Session 服务中,之后各个应用服务再从这个 Session 服务中获取需要的 Session 对象。在大规模分布式系统中,推荐使用这种独立的 Session 服务方式。这种方式在存储 Session 对象时,既可以用数据库,又可以使用各种分布式或集群存储系统。
在使用了独立的 Session 服务器之后,应用服务就是一种无状态服务了,换句话说,此时的应用服务与用户的状态是无关的,无论是哪个用户在什么时间发出的请求,所有的应用服务都会进行相同的处理。先从 Session 服务中获取 Session 对象,再进行相同的业务处理。
有状态服务是指不同的应用服务与用户的状态有着密切的关系,例如假设应用服务 A 中保存着用户的 Session,应用服务 B 中没有保存,之后如果用户发出一个请求,经过 Nginx 转发到了应用服务 A 中,那么就可以直接进行下单、结算等业务,而如果用户的请求被 Nginx 转发到了应用服务 B 中,就会提示用户“请先登录······”,类似这种不同应用服务因为对用户状态的持有情况不同,从而导致的执行方式不同就可以理解为“有状态服务”。
“无状态服务”具有数据同步、快速部署的优势,但是也不能盲目地将其作为唯一的选择,任何技术或者架构的选择都得看具体的业务场景,如在小型项目中或仅有一个服务的项目中,就可以采用有状态的服务来降低开发的难度,缩短开发的周期。
技术选型原则与数据库设计
在做技术选型时,既要注意技术的性能,又要注意安全性,并预估这些技术是否有足够长的生命力。我们在这里以 MySQL 数据库为例,介绍一种数据库的选型的思路。
各种版本的 MySQL 默认的并发连接数是一到两百,MySQL单机可配置的最大连接数为 16384(一般情况下,由于计算机自身硬件的限制,单机实际能够负载的并发数最多为一千左右)。因此高并发系统面临的最大的性能瓶颈就是数据库,我们之前设计各种缓存的目的就是尽可能地减少对数据库的访问的。
除了在页面、应用程序中增加缓存以外,我们还可以在应用程序和数据库之间加一层 Redis 高速缓存,从而提高数据的访问速度并且减少对数据库的访问次数,具体如下:
- 搭建高可用 Redis 集群,并通过主从同步进行数据备份、通过读写分离降低并发写操作的冲突、通过哨兵模式在 Master 挂掉之后选举新的 Master;
- 搭建双 Master 的 MySQL 集群,并通过主从同步做数据备份;
- 通过 MyCat 对大容量的数据进行分库/分表,并控制 MySQL 的读写分离;
- 通过 Haproxy 搭建 MyCat 集群;
- 通过 Keepalived 搭建 Haproxy 集群,通过心跳机制防止单节点故障;并且 Keepalived 可以生成一个 VIP,并用此 VIP 与 Redis 建立连接。
缓存穿透与缓存雪崩问题
缓存可以在一定程度上缓解高并发造成的性能问题,但在一些特定场景下缓存自身也会带来一些问题,比较典型的就是缓存穿透与缓存雪崩问题。为了讲解的方便,我们使用 MySQL 代指所有的关系型数据库RDMS,用 Redis 代指所有数据库的缓存组件。
缓存穿透
缓存穿透是指大量查询一些数据库中不存在的数据,从而影响数据库的性能。例如 Redis 等 KV 存储结构的中间件可以作为 MySQL 等数据库的缓存组件,但如果某些数据没有被 Redis 缓存却被大量的查询,就会对 MySQL 带来巨大压力。
我们在前面介绍过,单机 MySQL 最大能够承受的并发连接数只有一千左右,因此无论是设计失误(例如某个高频访问的缓存对象过期)、恶意攻击(例如频繁查询某个不存在的数据),还是偶然事件(例如由于社会新闻热点导致某个关键词搜索量大增)等,都可能让 MySQL 遭受缓存穿透,从而宕机。
相信大家在理解了缓存穿透的原因后,解决思路就已经明确了,举例如下。
- 拦截非法的查询请求,仅将合理的请求发送给 MySQL。如,可以使用验证码、IP 限制等手段限制恶意攻击,并用敏感词过滤器等拦截不合理的非法查询。
- 缓存空对象。如,假设在 iphone9 上市后,可能会导致大量用户搜索 iphone9,但此时 Redis 和 MySQL 中还没有 iphone9 这个词。一种解决办法就是,将数据库中不存在的 iphone9 也缓存在 Redis 中,如 Key=iphone9,value=””。之后,当用户再次搜索 iphone9 时,就可以直接从 Redis 中拿到结果,从而避免对 MySQL 的访问,为了减少 Redis 对大量空对象的缓存,可以适当减少空对象的过期时间。
- 建立数据标识仓库。将 MySQL 中的所有数据的 name 值都映射成 hash 值,例如可以将“商品表”中的商品名“iphone8”映射成 MD5 计算出来的 hash 值 b2dd48ff3e52d0796675693d08fb192e,然后再将全部 name 的 hash 值放入 Redis 中,从而构建出一个“数据库中所有可查数据的 hash 仓库。之后,每次在查询 MySQL 之前都会先查询这个 hash 仓库,如果要查询数据的 hash 值存在于仓库中,再进入 MySQL 做真实的查询,如果不存在则直接返回。
缓存雪崩
除了缓存穿透以外,在使用缓存时还需要考虑缓存雪崩的情况。缓存雪崩是指由于某种原因造成 Redis 突然失效,从而造成 MySQL 瞬间压力骤增,进而严重影响 MySQL 性能甚至造成 MySQL 服务宕机。以下是造成缓存雪崩的两个常见原因:
- Redis 重启;
- Redis 中的大量缓存对象都设置了相同的过期时间。
为了避免缓存雪崩的发生,可参考使用以下解决方案:
- 搭建 Redis 集群,保证高可用;
- 避免大量缓存对象的 key 集中失效,尽力让过期时间分配均匀一些,例如,可以给各个缓存的过期时间乘一个随机数;
- 通过队列、锁机制等控制并发访问 MySQL 的线程数。
不同类型服务器的选择
对于大型项目来说,为了保证较高的性能,至少需要三台服务器:
- 应用服务器。
- 数据库服务器。
- 文件服务器。
并且,不同类型的服务器对硬件的需求也各不相同,例如,应用服务器主要是处理业务逻辑,因此需要强大的** CPU 支持;数据库服务器的性能依赖于磁盘检索的速度和数据缓存的容量,因此需要速度较快的硬盘(如固态硬盘)和大容量的内存**;文件服务器主要是储存文件,因此需要大容量的硬盘。
集群服务与动静分离
现在,虽然将服务器分成了应用服务器,数据库服务器和文件服务器。但是每个子服务器仅仅只有一个,并且单一应用服务器能够处理的请求连接是有限的,例如单个 Tomcat 最佳的并发量是 250 左右,如果并发的请求大于 250 就要考虑搭建 Tomcat 集群了(这里我们推荐可以使用 docker 快速搭建)。使用集群除了能解决负载均衡以外,还有另一个优势:失败迁移。当某一个应用服务器宕机时,其他应用服务器可以继续处理客户请求。
集群虽然有了,是否就适合存放全部数据并处理全部请求了呢?其实我们发现还可以进一步优化为“动静分离”。下面阐述一下“动”与“静”的概念。
静:如果是观看电视剧/电影、微视频、高清图片等这种大文件的静态请求,最好使用 CDN 将这些静态资源部署在各地的边缘服务器上,让用户可以就近获取所需内容,以此降低网络拥塞,提高用户访问响应速度。如果是 html、css、js 或小图片等这类小文件的静态资源,就可以直接缓存在反向代理服务器上,当用户请求时直接给予响应。还可以用 webpack 等工具将 css、javascript、html 进行压缩、组合,并将多个图片合成一张雪碧图,最终将静态资源进行统一打包,从而优化前端资源的体积。
动:如果是搜索商品、增、删、改等动态请求,就需要访问我们自己编写并搭建的应用服务器。
之后,如果并发数继续增加、项目继续扩大,就可以使用分布式对项目进行拆分,接下来我们给大家具体介绍一下分布式系统的概念。
分布式系统
分布式系统可以理解为将一个系统拆分为多个模块并部署到不同的计算机上,然后通过网络将这些模块进行整合,从而形成的一个完整系统。在实际应用时,分布式系统包含了分布式应用、分布式文件系统和分布式数据库等类型,具体如下。
-
分布式应用:将项目根据业务拆分成不同的模块,各个模块之间再通过 dubbo、Spring Cloud 等微服务架构或 SOA 技术进行整合。像这种根据业务功能,将项目拆分成多个模块的方式,也称为水平拆分。此外,我们也可对项目进行垂直拆分,例如可以将项目根据三层架构拆分成 View 层、Service 层、Dao 层等,然后将各层部署在不同的机器上。
-
分布式文件系统:将所有文件分散存储到多个计算机上。
-
分布式数据库系统:将所有数据分散存储到多个计算机上。
分布式系统搭建完毕后,接下来可能遇到的问题是,如何提高数据的访问速度?一种解决方案就是在应用服务器上使用缓存的方式,缓存分为本地缓存和远程缓存。本地缓存的访问速度最快,但是本地机器的内存容量、CPU 能力等有限。远程缓存就是用于缓存分布式和集群上的数据,可以无限制的扩充内存容量、CPU 能力,但是远程缓存需要进行远程 IO 操作,因此缓存的速度相比本地缓存慢。
如果缓存没有命中,就需要直接请求数据库,当请求量较大时,就需要对数据库进行读写分离,并且用主从同步对数据库进行热备份。如果是海量数据,除了可以用关系型数据库搭建分布式数据库以外,还可以使用 redis、Hbase 等 NoSQL 数据库。相应的,在处理海量数据时,也推荐使用 ElasticSearch 或 Lucene 等搜索引擎,并用 Hadoop、Spark、Storm 等大数据技术进行处理。
值得一提的是,在微服务架构中,数据库的使用比较灵活:每个微服务都可以有自己独立的数据库,或者多个微服务之间也可以交叉使用或共享同一份数据库。并且这些服务之间可以使用** thrift、grpc 等 RPC 技术来进行整合**。但要注意,使用 RPC 会给整个系统增加一层跨语言的中转结构,因此必然会带来一定程序的性能损耗。一般来讲,进行 RPC 跨语言调用是一种不得已而为之的办法。
大型系统架构设计
在设计大型系统的架构时,要特别注意对流量的控制,可以采取降级、限流和缓存等策略。在这里我们会给大家介绍一种常见的流量负载架构,然后再给出一个流行的软件技术的选型。
服务预处理-限流与多层负载
为了保证亿级流量下的高性能及高可用,除了精湛的编码功底和巧妙的算法以外,还需要对海量请求进行多级限流和多层负载。在这里我们给大家介绍一种处理客户端海量请求的思路,具体如下。
- 拦截非法请求,从而进行一定程度的限流,举例如下。
- 加入验证码,防止机器人恶意攻击。
- 隐藏秒杀入口地址,确保用户在进行了合理的操作后才能进入。
- 限制 IP 操作:对于秒杀等限量业务,限制某一 IP 能够发起请求的次数。
- 延长用户操作时间:为避免用户刷单,可以对具体业务在操作时间上进行限制,如同一用户 5 秒中内只能进行一次操作。
- 通过lvs 对客户请求进行分流(负载均衡),并通过 keepalived 实现多机部署、防止单点故障。
- 通过 Nginx 将请求进行动静分离:将静态请求部署到 CDN 上进行加速(或直接在 Nginx 中缓存),将动态请求发送给 MQ 进行流量削峰(当有大量请求时,为减轻服务端压力,可以先在 MQ 中设置可接收的最大请求量;超过最大值的请求将被直接丢弃)。
- 可以将同一个服务多次部署到多个节点上,形成集群服务(例如图中有两个“服务 A”),并用 Nginx 进行整合,用来实现并发请求的负载均衡和失败迁移。
- 项目中的所有服务可以通过 Maven 或 Gradle 进行依赖管理,并使用 Git/GitHub 进行版本控制和团队协作开发。
我们接下来要做的事情是进一步扩容,以上架构已经能够扛得住千万级的流量了,但如果遇到“双十一购物”、“12306 抢票”、“大型电商秒杀”等亿级流量,还需要做进一步改进。可以进行以下两点扩充,搭建最终的 Lvs+Nginx+DNS 负载架构:
- 通过 DNS 绑定多个 LVS 组成的集群,进一步负载均衡。
- 通过** Nginx 对动态请求的路径转发到特定的服务地址**上。例如,当用户访问 xiage.org/payment/时,Nginx 将该请求分发到服务 A 上,当用户访问 xiage.org/goods/时,Nginx 将该请求分发到服务 B 上。
值得注意的是,如果系统本身不是很大,那么是没有必要使用以上所有组件的。例如软负载均衡 LVS 的确可以减轻后面单个组件的压力,但 LVS 自身也存在着不足:LVS 会使原本直接到达 Nginx 的请求在 LVS 自身中转了一次,因此会增加系统中的网络流量,并且带来一定的延迟。简言之,任何一个中间件都可能会增加系统的稳定性及性能,但同时也会存在着一定的弊端,在实际使用时一定要结合项目的实际情况慎重权衡。
后面会针对这样的架构模型给大家引进复杂的大型系统采用分布式或者微服务架构是如何搭建具体的应用服务的,本章节针对高并发系统和大型互联网架构的介绍就是这些,大家多体会一下解决问题时层层递进的方案是如何提出来的。
本章总结
高并发是每个大型项目和公司实际开发过程中都无法回避的一个问题,我们通过给大家高并发需求的业务场景,带大家初始并了解了实际业务中并发性能提升对于整个系统的重要性。并通过如何设计一个大型系统方案全局掌控,给大家分析了设计原则并给出了一个实际的架构案例供大家学习,希望大家下来多琢磨,多研究和回顾。
共同学习,写下你的评论
评论加载中...
作者其他优质文章