centos 7上nginx+uwsgi 性能调优

上一章将nginx +uwsgi搭建起来,将keystone挂载后面。但是发现一个问题,如果http请求达到一定量后,nginx直接返回502。这让需要部署大规模openstack集群的我很是头疼,比较了一下请求的处理能力,keystone 原生的api 接口是可以承受一定量的大规模并发请求的。这就让我思考一个问题,为什么nginx作为web,性能却没有keystone api 自身的承载能力好呢。于是我做了压测,查了一下原因。

   

    服务器配置:24 cpu+200G mem+1T disk

    系统:centos 7.1

     部署:kesytone nginx+uwsgi

 

     先将keystone部署在nginx+uwsgi 后端

     在同机房的另外一台服务器上发起压测:

ab -r -n 100000 -c 100 -H "User-Agent: python-keystoneclient" -H "Accept: application/json" -H "X-Auth-Token: 65e194"  http://keystonehost:35357/v2.0/

     发现http处理正常。然后改一下并发数到200.发现大概50%的返回为502。

     然后我将keystone-api 却换成keystone 自身的服务openstack-keystone。再次用200并发压测:发现处理正常,没有返回502的。

ab -r -n 100000 -c 200 -H "User-Agent: python-keystoneclient" -H "Accept: application/json" -H "X-Auth-Token: 65e194"  http://keystonehost:35357/v2.0/

 

    大概知道问题应该在nginx和uwsgi上,限制了并发的处理数。

 

    查了nginx uwsgi官方的资料。原来调优有好几个参数,并且系统本身也需要做一些调优

  1.首先先看一下nginx.conf里影响处理的配置。

  

user nginx;
worker_processes  xx;  #可以设置成cpu个数,体验较佳的性能

error_log  /var/log/nginx/error.log;
pid        /var/run/nginx.pid;


worker_rlimit_nofile 65535; # 最大打开文件数,这个值需要<= worker_connections


events {
  worker_connections 65535;  # 最大连接数,这个值依赖系统的配置。

}

     

  2.看一下系统的配置sysctl.conf

 net.core.somaxconn = 2048  #定义了系统中每一个端口最大的监听队列的长度,这是个全局的参数。默认是128.优化可以根据系统配置做优化

  

  3.uwsgi 的配置优化/etc/uwsgi.d/admin.ini

 workers = 24  # 并发处理进程数
 listen = 65535 # 并发的socket 连接数。默认为100。优化需要根据系统配置

 在做优化之前,发现并发数过不了100.原因就是这里,uwsgi 的socket 默认链接为100.

 做完调优,在此压测了一下性能,并发为10000时:

ab -r -n 100000 -c 10000 -H "User-Agent: python-keystoneclient" -H "Accept: application/json" -H "X-Auth-Token: 65e194"  http://keystonehost:35357/v2.0/

压测报告:

Server Software: nginx/1.8.1
Server Hostname: keystonehost
Server Port: 35357
Document Path: /v2/
Document Length: 450 bytes
Concurrency Level: 15000
Time taken for tests: 30.136 seconds
Complete requests: 100000
Failed requests: 0
Write errors: 0
Total transferred: 72900000 bytes
HTML transferred: 45000000 bytes

Time per request: 4520.417 [ms] (mean)

Transfer rate: 2362.33 [Kbytes/sec] received

  

 这个时候切换到keystone自身服务openstack-keystone。并发为1000时。

 压测报告:

  

Server Software:
Server Hostname: keystonehost
Server Port: 35357
Document Path: /v2/
Document Length: 450 bytes
Concurrency Level: 10000
Time taken for tests: 100.005 seconds
Complete requests: 100000
Failed requests: 0
Write errors: 0
Total transferred: 70800000 bytes
HTML transferred: 45000000 bytes

Time per request: 10000.507 [ms] (mean)

Transfer rate: 691.37 [Kbytes/sec] received

 

  可以看出,openstack-keystone服务到并发为1000时,api服务已经到极限了。

 

  所以nginx+uswgi 经过调优后,nginx的高性能立即体现出来。

 大家要是还有更好的调优方式,欢迎大家贴出来一起学习哈。

posted @ 2019-02-15 15:26  CrossPython  阅读(531)  评论(0编辑  收藏  举报