美文网首页
架构设计读书笔记-性能篇(二)-计算高性能

架构设计读书笔记-性能篇(二)-计算高性能

作者: 高琳旭 | 来源:发表于2021-08-01 19:51 被阅读0次

    二、计算高性能

    高性能涉及面非常广,操作系统本身,磁盘、CPU、内存、缓存、网络、编程语言、架构,一个不恰当的debug日志,java程序打开debug开关,for循环中一个常用的查找操作等,都可能严重降低当前系统的性能。从架构设计来看,高性能设计集中在两个方面

    1、尽量提升单个服务器的性能,把单服务器的性能发挥到极致

    2、设计服务器集群方案

    最终系统的性能是架构设计与具体编码实现协作完成:架构设计决定系统性能的上限,实现细节决定系统性能的下限。下面单从架构方面,介绍计算高性能设计

    1、单服务器高性能

    PPC

    定义:是 Process PerConnection 的缩写,其含义是指每次有新的连接就新建(fork)一个进程去专门处理这个连接的请求,这是传统的 UNIX 网络服务器所采用的模型。

    适用:适合服务器的连接数没那么多的情况(几百以内数量级),例如数据库服务器

    弊端:1)进程创建代价高;2)父子进程通信复杂;3)支持的并发连接数量有限

    Prefork

    定义:提前创建进程(pre-fork)。系统在启动的时候就预先创建好进程,然后才开始接受用户的请求,当有新的连接进来的时候,就可以省去 fork 进程的操作,让用户访问更快、体验更好。

    适用:Apache 服务器提供了 MPM prefork 模式,推荐在需要可靠性或者与旧软件兼容的站点时采用这种模式,默认情况下最大支持 256 个并发连接

    弊端:解决PPC的弊端1),增加一个“惊群”现象,当一个子进程能accept 成功,所有阻塞在 accept 上的子进程都会被唤醒

    TPC

    定义:ThreadPer Connection 的缩写,其含义是指每次有新的连接就新建一个线程去专门处理这个连接的请求

    优点:线程比进程更轻量级,创建消耗少;多线程共享内存,通信简单,适合上千到上万的并发

    弊端:线程间的互斥和共享复杂度高,死锁问题;单个线程异常可能造成进程挂掉(如OOM)

    Prethread

    定义: prefork 类似,prethread 模式会预先创建线程,然后才开始接受用户的请求,当有新的连接进来的时候,就可以省去创建线程的操作。

    优点:相对于TPC,让用户感觉更快、体验更好。Apache 服务器的 MPM worker 模式本质上是prefork+prethread 的结合,首先创建多个进程,每个进程里面再创建多个线程。MPM worker默认支持 16 × 25 = 400 个并发处理线程

    弊端:TPC的弊端基本都在。

    Reactor

    定义:相对于PPC和TPC,进程(或线程,后同)连接结束后进程就销毁了,Reactor创建一个进程池,将连接分配给进程,一个进程可以处理多个连接的业务

    如何高效地处理多个连接的业务,引入了I/O 多路复用技术。

    1)多条连接共用一个阻塞对象后,进程只需要在一个阻塞对象上等待,而无须再轮询所有连接

    2)某条连接有新的数据可以处理时,操作系统会通知进程,进程从阻塞状态返回,开始进行业务处理

    Reactor也叫Dispatcher 模式,分三种实现:

    Reactor 单进程 / 线程

    优点:简单,没有进程间通信,没有进程竞争,全部都在同一个进程内完成,只适用于业务处理非常快速的场景,典型应用场景:Redis

    弊端:1)一个进程,无法发挥多核 CPU的性能;2)一个Handler 处理稍微慢,整个进程阻塞。

    Reactor 多线程

    优点:充分利用多核多 CPU 的处理能力。

    弊端:1)多线程数据共享和访问比较复杂;2)Reactor 承担所有事件的监听和响应,相对于多Reactor ,瞬间高并发时会成为性能瓶颈

    Reactor 多进程 / 线程

    优点:Nginx 采用的是多 Reactor 多进程,Memcache和 Netty采用多 Reactor 多线程

    Proactor

    定义:Reactor中用户进程在执行 read 和 send 这类 I/O 操作是的同步操作,把同步修改为异步,即为 Proactor。

    优点:理论上 Proactor 比Reactor 效率要高,Windows 下通过 IOCP 实现了真正的异步 I/O,Linux系统下的 AIO 并不完善,典型应用:Boost.Asio

    2、集群高性能

    通过负载均衡来达到集群中任务分配的目的。

    DNS 负载均衡

    定义:DNS 解析同一个域名可以返回不同的 IP 地址,用来实现地理级别的均衡

    优点:实现简单、成本低;就近访问,提升访问速度

    弊端:DNS 缓存更新不及时;扩展性差;分配策略简单,不能根据系统与服务的状态来判断负载

    硬件负载均衡

    定义:单独的硬件设备来实现负载均衡功能,这类设备和路由器、交换机类似,可以理解为一个用于负载均衡的基础网络设备,典型设备有F5 和A10

    优点:功能强大,全局负载均衡;性能强大,支持百万以上并发;稳定性高,已大规模商用;安全性好,备防火墙、防 DDoS 攻击

    弊端:贵;扩展和定制性差

    硬件负载均衡价格

    软件负载均衡

    定义:通过负载均衡软件来实现负载均衡功能。

    常见的有 Nginx 和LVS,其中 Nginx 是软件的 7 层负载均衡,LVS 是 Linux 内核的 4 层负载均衡。

    4层和 7 层的区别就在于协议和灵活性,Nginx 支持 HTTP、E-mail 协议;而LVS 是 4 层负载均衡,和协议无关,几乎所有应用都可以做,例如,聊天、数据库等

    优点:部署维护简单;相对于硬件负载均衡要便宜;灵活定制

    缺点:相对于硬件负载均衡,1)性能要差,最大并发5万;2)功能弱一些;3)本身没有防火墙和方DDOS攻击

    实际使用中,根据业务规模,可以使用上面三种负载均衡模式的一种或几种一起组合使用。

    相关文章

      网友评论

          本文标题:架构设计读书笔记-性能篇(二)-计算高性能

          本文链接:https://www.haomeiwen.com/subject/busrvltx.html