高并发概述

高并发概述

​ 高并发是互联网应用的一大特点,也是互联网应用不可避免的一个问题;比如 淘宝双11购物狂欢节,京东618购物促销节,12306春节火车票,促销,秒杀等。 解决高并发问题是一个系统工程,需要站在全局高度统筹谋划,从多个角度进行架构设计。解决高并发问题,不是一个或两个方案就能解决的,需要从各个维度综合施策才能完成。

​ 高并发相关常用的一些指标有响应时间(Response Time),吞吐量(Throughput),每秒查询率QPS(Query Per Second),并发用户数等。

响应时间:系统对请求做出响应的时间。例如系统处理一个HTTP请求需要200ms,这个200ms就是系统的响应时间。

吞吐量:单位时间内处理的请求数量。

QPS:每秒响应请求数。在互联网领域,这个指标和吞吐量区分的没有这么明显。

并发用户数:同时承载正常使用系统功能的用户数量。例如一个即时通讯系统,同时在线量一定程度上代表了系统的并发用户数。

​ 如何提升系统的并发能力 ,在实践中,我们总结和提炼出来了很多应对高并发的方案或者说手段,分别如下

高并发解决方案

1 硬件

1.1 概述

​ 系统访问用户增多,流量增大,导致服务器压力增大,出现性能瓶颈,我们可以采用一个简单粗暴的策略:提升服务器硬件配置,提升服务器硬件配置的策略,也称为:单体应用垂直扩容

比如:产品或者网站初期,通常功能较少,用户量也不多,一般就采用一个项目工程来完成,这就是单体应用,也叫集中式应用。

​ 按照经典的MVC三层架构设计,部署单台服务器,使用单台数据库,应用系统和数据库部署在同一台服务器上,随着应用系统功能的增加,访问用户的增多,单台服务器已无法承受那么多的访问流量。

​ 此时,我们可以直接采用简单粗暴的办法:提升硬件配置来解决

1.2 单体应用垂直扩容方案

1)CPU从32位提升为64位

2)内存从64GB提升为256GB(比如缓存服务器);

3)磁盘从HDD(Hard Disk Drive)提升为SSD(固态硬盘(Solid State Drives)),有大量读写的应用磁盘扩容,1TB扩展到2TB

4)千兆网卡提升为万兆网卡

​ 在互联网业务发展非常迅猛的早期,如果预算不是问题,强烈建议使用“增强单机硬件性能”的方式提升系统并发能力,因为这个阶段,公司的战略往往是发展业务抢时间,而“增强单机硬件性能”往往是最快的方法。

不管是提升单机硬件性能,还是提升单机架构性能,都有一个致命的不足:单机性能总是有极限的。所以设计高并发终极解决方案还是靠分布式架构来解决。

2 缓存

2.1概述

缓存可以说是解决大流量高并发,优化系统性能非常重要的一个策略. 它是解决性能问题的利器,就像一把瑞士军刀,锋利强大 缓存在高并发系统中无处不在(到处都是)。

2.1.1http缓存

(1) 浏览器缓存

浏览器缓存是指当我们使用浏览器访问一些网站页面或者HTTP服务时,根据服务器端返回的缓存设置响应头将响应内容缓存到浏览器,下次可以直接使用缓存内容或者仅需要去服务器端验证内容是否过期即可,这样可以减少浏览器和服务器之间来回传输的数据量,节省带宽,提升性能;

​ 比如新浪:http://www.sina.com.cn/

​ 浏览器在第一次请求数据时,服务器会将缓存的标识与数据一起返回给浏览器,浏览器将这两个缓存到本地缓存数据库中。再次请求数据时,就会在请求 header 中带上缓存的标识发送给服务器,服务器根据缓存标识对比,如果发生变化,则返回 200 状态码,返回完整的响应数据给浏览器,如果未发生更新,则返回 304 状态码告诉浏览器继续使用缓存数据。

我们也可以在Java代码中通过设置响应头,告诉前端浏览器进行缓存:

DateFormat format = new SimpleDateFormat("EEE,MMM yyyy HH: mm: ss 'GMT'", Locale. US);
//当前时间
long now = System.currentTimeMillis() * 1000 * 1000;
response.addHeader( "Date", format.format(new Date()));
//过期时间http 1. 0支持
response.addHeader("Expires", format.format (new Date(now+ 20 * 1000)));
//文档生存时间http 1.1支持
response.addHeader("Cache-Control", "max-age=20");

(2)Nginx缓存

Nginx提供了expires指令来实现缓存控制,比如:

location /static {

​ root /opt/static/;

​ expires 1d;//全天

}

当用户访问时,Nginx拦截到请求后先从Nginx本地缓存查询数据,如果有并且没有过期,则直接返回缓存内容

(2) CDN缓存

需求:同时有1千万用户看同一个热门视频,如果大家观看的是1080p清晰度的视频(理论上需要4Mbps带宽),那么,累计需要的流量带宽是10,000,000×4Mbps=40,000,000Mbps=40Tbps。 对于网视频内容提供商来说,这无疑是非常巨大的流量压力 。我们普通计算机的网卡,是1Gbps的带宽。如果优酷有一台超级服务器,那么,这台超级服务器就需要4万块网卡,而且必须百分之百跑满速度,才能够实现这1千万用户的流畅观看 。对于一些实力不够的服务商,或者突发流量陡增的情况,就会造成拥塞,从而导致卡顿和延时。 如何解决?

CDN的全称是Content Delivery Network,即内容分发网络。是一项非常有效的缩短时延的技术

CDN这个技术最初的核心理念,就是将内容缓存在终端用户附近

具体来说,CDN就是采用更多的缓存服务器(CDN边缘节点),布放在用户访问相对集中的地区或网络中。当用户访问网站时,利用全局负载技术,将用户的访问指向距离最近的缓存服务器上,由缓存服务器响应用户请求。类似于电商的本地仓吧。

采用CDN技术,最大的好处,就是加速了网站的访问——用户与内容之间的物理距离缩短,用户的等待时间也得以缩短。 CDN它本身也是一个缓存,它把后端应用的数据缓存起来,用户要访问的时候,直接从CDN上获取,不需要走后端的Nginx,以及具体应用服务器Tomcat,它的作用主要是加速数据的传输,也提高稳定性,如果从CDN上没有获取到数据,再走后端的Nginx缓存,Nginx上也没有,则走后端的应用服务器。

2.1.2 应用缓存

(1) 内存缓存

​ 在内存中缓存数据,效率高,速度快,应用重启缓存丢失

(2)磁盘缓存

​ 在磁盘缓存数据,读取效率较之内存缓存稍低,应用重启缓存不会丢失

​ 代码组件:Guava、Ehcache

​ 服务器:Redis、MemCache

2.1.3 多级缓存

在整个应用系统的不同层级进行数据的缓存,多层次缓存,来提升访问效率;

​ 比如:浏览器 -> CDN -> Nginx -> Redis -> DB (磁盘、文件系统)

2.1.4 缓存的使用场景

Ø 经常需要读取的数据

Ø 频繁访问的数据

Ø 热点数据缓存

Ø IO瓶颈数据

Ø 计算昂贵的数据

Ø 无需实时更新的数据

Ø 缓存的目的是减少对后端服务的访问,降低后端服务的压力

3 集群

有一个单体应用,当访问流量很大无法支撑,那么可以集群部署,也叫单体应用水平扩容,原来通过部署一台服务器提供服务,现在就多部署几台,那么服务的能力就会提升。

​ 部署了多台服务器,但是用户访问入口只能是一个,比如www.web.com,所以就需要负载均衡,负载均衡是应用集群扩容后的必须步骤,集群部署后,用户的会话session状态要保持的话,就需要实现session共享。

4 拆分

4.1 应用拆分

应用的拆分:分布式 (微服务)

​ 单体应用,随着业务的发展,应用功能的增加,单体应用就逐步变得非常庞大,很多人维护这么一个系统,开发、测试、上线都会造成很大问题,比如代码冲突,代码重复,逻辑错综混乱,代码逻辑复杂度增加,响应新需求的速度降低,隐藏的风险增大,所以需要按照业务维度进行应用拆分,采用分布式开发;

​ 应用拆分之后,就将原来在同一进程里的调用变成了远程方法调用,此时就需要使用到一些远程调用技术:httpClient、hessian、dubbo、webservice等;

​ 随着业务复杂度增加,我们需要采用一些开源方案进行开发,提升开发和维护效率,比如Dubbo,SpringCloud;

​ 通过应用拆分之后,扩容就变得容易,如果此时系统处理能力跟不上,只需要增加服务器即可(把拆分后的每一个服务再多做几个集群)

4.2 数据库拆分

​ 数据库拆分分为:垂直拆分和水平拆分 (分库分表)

​ 按照业务维度把相同类型的表放在一个数据库,另一些表放在另一个数据库,这种方式的拆分叫垂直拆分,也就是在不同库建不同表,把表分散到各个数据库

​ 比如产品、订单、用户三类数据以前在一个数据库中,现在可以用三个数据库,分别为 产品数据库、订单数据库、用户数据库

​ 这样可以将不同的数据库部署在不同的服务器上,提升单机容量和性能问题,也解决多个表之间的IO竞争问题

​ 根据数据行的特点和规则,将表中的某些行切分到一个数据库,而另外的某些行又切分到另一个数据库,这种方式的拆分叫水平拆分

​ 单库单表在数据量和流量增大的过程中,大表往往会成为性能瓶颈,所以数据库要进行水平拆分

​ 数据库拆分,采用一些开源方案,降低开发难度,比如:MyCat

5 静态化

对于一些访问量大,更新频率较低的数据,可直接定时生成静态html页面,供前端访问,而不是访问jsp

常用静态化的技术:freemaker、velocity

定时任务,每隔2分钟生成一次首页的静态化页面

页面静态化首先可以大大提升访问速度,不需要去访问数据库或者缓存来获取数据,浏览器直接加载html页即可

页面静态化可以提升网站稳定性,如果程序或数据库出了问题,静态页面依然可以正常访问

6 动静分离

采用比如Nginx实现动静分离,Nginx负责代理静态资源,Tomcat负责处理动态资源

Nginx的效率极高,利用它处理静态资源,可以为后端服务器分担压力

动静分离架构示意图

image-20220222161203910

​ redis和nginx并发量5w左右,tomcat和mysql700左右,当然可以通过一些方式调整

7 队列

采用队列是解决高并发大流量的利器

队列的作用就是:异步处理/流量削峰/系统解耦

异步处理是使用队列的一个主要原因,比如注册成功了,发优惠券/送积分/送红包/发短信/发邮件等操作都可以异步处理

使用队列流量削峰,比如并发下单、秒杀等,可以考虑使用队列将请求暂时入队,通过队列的方式将流量削平,变成平缓请求进行处理,避免应用系统因瞬间的巨大压力而压垮

使用队列实现系统解耦,比如支付成功了,发消息通知物流系统,发票系统,库存系统等,而无需直接调用这些系统;

队列应用场景

  1. 不是所有的处理都必须要实时处理

2)不是所有的请求都必须要实时告诉用户结果

3)不是所有的请求都必须100%一次性处理成功

4)不知道哪个系统需要我的协助来实现它的业务处理,保证最终一致性,不需要强一致性

常见的消息队列产品:ActiveMQ/RabbitMQ/RocketMQ/kafka

  1. ActiveMQ是jms规范下的一个老牌的成熟的消息中间件/消息服务器

  2. RabbitMQ/RocketMQ 数据可靠性极好,性能也非常优秀,在一些金融领域、电商领域使用很广泛;RocketMQ是阿里巴巴的;

  3. kafka主要运用在大数据领域,用于对数据的分析,日志的分析等处理,它有可能产生消息的丢失问题,它追求性能,性能极好,不追求数据的可靠性

8 池化

池化技术 (Pool) 是一种很常见的编程技巧,在请求量大时能明显优化应用性能,降低系统频繁建连的资源开销。我们日常工作中常见的有数据库连接池、线程池、对象池等,它们的特点都是将 “昂贵的”、“费时的” 的资源维护在一个特定的 “池子” 中,规定其最小连接数、最大连接数、阻塞队列等配置,方便进行统一管理和复用,通常还会附带一些探活机制、强制回收、监控一类的配套功能。

8.1 对象池

Java对象是通过构造函数来创建的,在这一过程中,该构造函数链中的所有构造函数也都会被自动调用。另外,默认情况下,调用类的构造函数时,Java会把变量初始化成确定的值:所有的对象被设置成null,整数变量(byte、short、int、long)设置成0,float和double变量设置成0.0,逻辑值设置成false。所以用new关键字来新建一个对象的时间开销是很大的.

对象池技术基本原理的核心有两点:缓存和共享
即对于那些被频繁使用的对象,在使用完后,不立即将它们释放,而是将它们缓存起来,以供后续的应用程序重复使用,从而减少创建对象和释放对象的次数,进而改善应用程序的性能。事实上,由于对象池技术将对象限制在一定的数量,也有效地减少了应用程序内存上的开销。

Apache Common Pool2 是 Apache 提供的一个通用对象池技术实现,可以方便定制化自己需要的对象池, Redis 客户端 Jedis 内部连接池就是基于它来实现的 .

实际项目采用对象池并不常见,主要在开发框架或组件的时候会采用

8.2 数据库连接池

数据库连接池的基本思想是在系统初始化的时候将数据库连接作为对象存储在内存中,当用户需要访问数据库的时候,并非建立一个新的连接,而是从连接池中取出一个已建立的空闲连接对象。在使用完毕后,用户也不是将连接关闭,而是将连接放回到连接池中,以供下一个请求访问使用。这些连接的建立、断开都由连接池自身来管理。

同时,还可以设置连接池的参数来控制连接池中的初始连接数、连接的上下限数和每个连接的最大使用次数、最大空闲时间等。当然,也可以通过连接池自身的管理机制来监视连接的数量、使用情况等。

常见的数据库连接池:Druid/DBCP/C3P0/BoneCP

8.3 Redis连接池

​ JedisPool(内部基于commons-pool2 实现)

8.4 HttpClient连接池

HttpClient 我们经常用来进行 HTTP 服务访问。如果项目中有一个获取任务执行状态的功能使用 HttpClient,一秒钟请求一次,经常会出现 Conection Reset 异常。经过分析发现,问题是出在 HttpClient 的每次请求都会新建一个连接,当创建连接的频率比关闭连接的频率大的时候,就会导致系统中产生大量处于 TIME_CLOSED 状态的连接。这个时候使用连接池复用连接就能解决这个问题。

8.5 线程池

​ 一种线程使用模式。线程过多会带来调度开销,进而影响缓存局部性和整体性能。而线程池维护着多个线程,等待着监督管理者分配可并发执行的任务。这避免了在处理短时间任务时创建与销毁线程的代价。线程池不仅能够保证内核的充分利用,还能防止过分调度。可用线程数量应该取决于可用的并发处理器、处理器内核、内存、网络sockets等的数量。 例如,线程数一般取cpu数量+2比较合适,线程数过多会导致额外的线程切换开销。】

在java中使用ava.util.concurrent包可以实现线程池,假定有5个下载任务:

​ Executors.newFixedThreadPool();固定数量的线程池,并且核心线程数等于最大线程数,而且它们的线程数存活时间都是无限的。如果线程池数量为2,则每次只有2个文件同时下载。

​ Executors.newSingleThreadExecutor();单核心线程池,最大线程也只有一个,线程池中使用的从始至终都是单个线程。5个下载任务,线程名字都是相同的,这五个下载任务是一个结束另一个才开始。

​ Executors.newCachedThreadPool();可以进行缓存的线程池,意味着它的线程数是最大的,无限的。可以自动扩容。五个下载任务可以同时执行。

​ Executors.newScheduledThreadPool(10);是有计划性的线程池,就是在给定的延迟之后运行,或周期性地执行 ,等效于定时器Timer的工作。

9 优化

9.1 JVM优化

  • 大多数的Java应用不需要进行JVM优化;
  • 大多数导致GC问题的原因是代码层面的问题导致的(代码层面);
  • 上线之前,应先考虑将机器的JVM参数设置到最优;
  • 减少创建对象的数量(代码层面);
  • 减少使用全局变量和大对象(代码层面);
  • 优先架构调优和代码调优,JVM优化是不得已的手段(代码、架构层面);
  • 分析GC情况优化代码比优化JVM参数更好(代码层面);

设置JVM参数

-server -Xmx4g -Xms4g -Xmn256m 
-XX:PermSize=128m
-Xss256k 
-XX:+DisableExplicitGC
-XX:+UseConcMarkSweepGC
-XX:+CMSParallelRemarkEnabled
-XX:+UseCMSCompactAtFullCollection
-XX:LargePageSizeInBytes=128m
-XX:+UseFastAccessorMethods
-XX:+UseCMSInitiatingOccupancyOnly
-XX:CMSInitiatingOccupancyFraction=70

-server VM有两种运行模式Server与Client,两种模式的区别在于,Client模式启动速度较快,Server模式启动较慢;但是启动进入稳定期长期运行之后Server模式的程序运行速度比Client要快很多;

-Xmx2g 最大堆大小

-Xms2g 初始堆大小

-Xmn256m 堆中年轻代大小;

-XX:PermSize设置非堆内存初始值,默认是物理内存的1/64;由XX:MaxPermSize设置最大非堆内存的大小,默认是物理内存的1/4. -Xss 每个线程的Stack大小

-XX:+DisableExplicitGC,这个参数作用是禁止代码中显示调用GC。代码如何显示调用GC呢,通过System.gc()函数调用。如果加上了这个JVM启动参数,那么代码中调用System.gc()没有任何效果,相当于是没有这行代码一样。

-XX:+UseConcMarkSweepGC 并发标记清除(CMS)收集器,CMS收集器也被称为短暂停顿并发收集器;

-XX:+CMSParallelRemarkEnabled 降低标记停顿;

-XX:+UseCMSCompactAtFullCollection:使用并发收集器时,开启对年老代的压缩.

-XX:LargePageSizeInBytes 指定 Java heap 的分页页面大小

-XX:+UseFastAccessorMethods 原始类型的快速优化

-XX:+UseCMSInitiatingOccupancyOnly 使用手动定义的初始化定义开始CMS收集 -XX:CMSInitiatingOccupancyFraction 使用cms作为垃圾回收使用70%后开始CMS收集;

参数指南:http://www.oracle.com/technetwork/java/javase/tech/vmoptions-jsp-140102.html

内存结构:http://www.choupangxia.com/2019/10/18/jvm之内存结构详解/

9.2 Tomcat优化

Tomcat内存优化主要是对 tomcat 启动参数优化,我们可以在 tomcat 的启动脚本 catalina.sh 中设置 java_OPTS 参数 设置JVM参数,可以参考JVM优化参数

JAVA_OPTS="-server -XX:+PrintGCDetails -Xmx4g -Xms4g -Xmn256m 
-XX:PermSize=128m 
-Xss256k 
-XX:+DisableExplicitGC 
-XX:+UseConcMarkSweepGC 
-XX:+CMSParallelRemarkEnabled 
-XX:+UseCMSCompactAtFullCollection 
-XX:LargePageSizeInBytes=128m 
-XX:+UseFastAccessorMethods 
-XX:+UseCMSInitiatingOccupancyOnly 
-XX:CMSInitiatingOccupancyFraction=70"

Ø 设置tomcat的线程池大小

Ø 设置 IO 模式

Ø 配置 APR

​ 可以参考文章:https://www.cnblogs.com/zhuawang/p/5213192.html

10 Java程序优化

Ø 养成良好的编程习惯

Ø 不要重复创建太多对象

Ø 流/文件/连接 一定要记得在finally块中关闭

Ø 少用重量级同步锁synchronized,采用Lock

Ø 不要在循环体中使用try/catch

Ø 多定义局部变量,少定义成员变量

Ø ......

10.1 数据库优化

10.1.1 数据库服务器优化

修改数据库服务器的配置文件的参数,偏DBA (数据库管理员)

10.2 数据库架构优化

Ø 将数据库服务器和应用服务器分离

Ø 读写分离:通过数据库主从架构解决,写数据时操作主库,读数据时操作从库,分摊读写压力

Ø 分库分表:扩容数据库,解决数据量容量问题

10.3 数据库索引优化

Ø 建立合适的索引

Ø 建立索引的字段尽量的小,最好是数值

Ø 尽量在唯一性高的字段上创建索引,主键、序号等

Ø 不要在性别这种唯一性很低的字段上创建索引

10.4 SQL优化

​ SQL优化很多,可以总结出很多经验;

​ 参考文章:https://blog.csdn.net/jie_liang/article/details/77340905

10.5 采用数据搜索引擎

solr / elasticsearch

11 Nginx优化

11.1 调整配置文件参数

​ worker_processes 16;

gzip on; #开启gzip压缩输出

events {

worker_connections 65535; #极限值65535

​ multi_accept on; #开启多路连接

​ use epoll; #使用epoll模型

}

12 Linux优化

优化Linux内核参数

修改/etc/sysctl.conf

http://blog.51cto.com/yangrong/1567427 偏运维的职责

13 网络优化

​ 机房、带宽、路由器等方面优化

​ 网络架构更合理

​ 运维的职责

14 前端优化

14.1 js优化

Ø 压缩变小

压缩工具

Ø 多个js合并成一个js文件,直接手动拷贝到一个文件中去,页面只加载这一个文件或者利用程序,比如controller,/aa/js?path=xxx.js,xxx.js

2.14.2 css优化

Ø 压缩变小

Ø 多个css文件合并成一个css文件

2.14.3 html页面优化

Ø 不要加载太多js和css

Ø js和css加载放在页面的尾部,从用户体验角度考虑的

Ø 页面上减少到服务的请求数

2.15 压测

Ø 压测就是压力测试

Ø 在系统上线前,需要对系统各个环节进行压力测试,发现系统的瓶颈点,然后对系统的瓶颈点,进行调优。调优完成后,还需要考虑另外一些风险因素,比如网络不稳定,机房故障等。所以我们需要提前有故障预备方案,比如多机房部署容灾、路由切换等。故障预备方案做好后,还需要提前进行演练,以确保预案的有效性

Ø 压力测试工具

Apache JMeter / LoadRunner等,偏测试的工作

Ø CTO、架构师,技术团队、测试团队、运维团队、DBA 等共同完成

1.9 总结

完成以上的工作,我们才能实现一个 高并发、高性能、高可用 的“三高”分布式系统

posted @ 2022-09-30 17:50  Angelzheng  阅读(107)  评论(0编辑  收藏  举报