nginx 配置
nginx是比较常用的反向代理服务器和负载均衡器,性能非常好,其主要通过配置来实现各种功能,配置如下:
#配置用户或者组,默认为nobody nobody。 #user nobody; #工作进程数,一般设置为CPU的数量或者两倍 #worker_processes最多开启8个,8个以上性能提升不会再提升了,而且稳定性变得更低,所以8个进程够用了。 #使用lscpu 来查询系统cpu的个数 worker_processes 4; #仅适用于linux,使用该选项可以绑定worker进程和CPU,使得不会互相抢CPU worker_cpu_affinity 0001 0010 0100 1000 #8核配置 #worker_cpu_affinity 00000001 00000010 00000100 0000100000010000 00100000 01000000 10000000; #同时连接的数量受限于系统上可用的文件描述符的数量,因为每个套接字将打开一个文件描述符。 #如果NGINX尝试打开比可用文件描述符更多的套接字,会发现error.log中出现Too many opened files的信息 #先用ulimit -n 命令查询linux系统的文件描述符的数量,worker_rlimit_nofile设置的值最好与ulimit -n保持一致。 #文件资源限制的配置可以在/etc/security/limits.conf设置,针对root/user等各个用户或者*代表所有用户来设置。 #* soft nofile 65535 #* hard nofile 65535 worker_rlimit_nofile 65535 #进程pid文件 #pid logs/nginx.pid; #制定全局日志路径和级别。 #级别依次为:debug|info|notice|warn|error|crit|alert|emerg #error_log logs/error.log; #error_log logs/error.log notice; #events块:配置影响nginx服务器或与用户的网络连接。 #每个进程的最大连接数,选取哪种事件驱动模型处理连接请求,是否允许同时接受多个网路连接,开启多个网络连接序列化等。 events { #使用epoll的I/O 模型。linux建议epoll,FreeBSD建议采用kqueue,window下不指定。 use epoll; #单个worker进程最大连接数(最大连接数=连接数*进程数) worker_connections 1024; #设置一个进程是否同时接受多个网络连接,默认为off multi_accept on; #accept_mutex参数将使每个可用的worker进程逐个接受新连接。 默认情况下,该标志设置为on。 #如果accept_mutex为off,所有可用的worker将从等待状态唤醒,但只有一个worker处理连接。 这导致惊群现象,每秒重复多次。 #这种现象导致服务器性能下降,因为所有被唤醒的worker都在占用CPU时间。 这导致增加了非生产性CPU周期和未使用的上下文切换。 accept_mutex on; #设置http链接请求完成之后 还要保持多长时间,默认是75S,由于很多浏览器只支持60S,所以设置为60即可。 keepalive_timeout 60; #客户请求头缓冲大小,默认32位是8k,64位是16k。 client_header_buffer_size 4k; #这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量, #建议和打开文件数一致,inactive 是指经过多长时间文件没被请求后删除缓存。 open_file_cache max=65535 inactive=60s; #这个是指多长时间检查一次缓存的有效信息。 open_file_cache_valid 80s; #指令中的inactive 参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的, #如果有一个文件在inactive 时间内一次没被使用,它将被移除。 open_file_cache_min_uses 1; #指定了当搜索一个文件时是否缓存错误信息,也包括再次给配置中添加文件。我们也包括了服务器模块,这些是在不同文件中定义的。 #如果你的服务器模块不在这些位置,你就得修改这一行来指定正确的位置。 open_file_cache_errors on; } #http块:可以嵌套多个server,配置代理,缓存,日志定义等绝大多数功能和第三方模块的配置。 #如文件引入,mime-type定义,日志自定义,是否使用sendfile传输文件,连接超时时间,单连接请求数等。 http { #文件扩展名与文件类型映射表 include mime.types; #默认文件类型 default_type application/octet-stream; #默认编码 #charset utf-8; #日志格式设定 #$remote_addr与$http_x_forwarded_for用以记录客户端的ip地址; #$remote_user:用来记录客户端用户名称; #$time_local: 用来记录访问时间与时区; #$request: 用来记录请求的url与http协议; #$status: 用来记录请求状态;成功是200; #$body_bytes_sent :记录发送给客户端文件主体内容大小; #$http_referer:用来记录从那个页面链接访问过来的; #$http_user_agent:记录客户浏览器的相关信息; #通常web服务器放在反向代理的后面,这样就不能获取到客户的IP地址了,通过$remote_add拿到的IP地址是反向代理服务器的iP地址。 #反向代理服务器在转发请求的http头信息中,可以增加x_forwarded_for信息,用以记录原有客户端的IP地址和原来客户端的请求的服务器地址。 #访问日志格式 #log_format main '$remote_addr - $remote_user [$time_local] "$request" ' # '$status $body_bytes_sent "$http_referer" ' # '"$http_user_agent" "$http_x_forwarded_for"'; #访问日志位置 #access_log logs/access.log main; #取消服务日志 #access_log off; #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块 #开启文件传输,一般应用都应设置为on;若是有下载的应用,则可以设置成off来平衡网络I/O和磁盘的I/O来降低系统负载 sendfile on; #此选项允许或禁止使用socke的TCP_CORK的选项,此选项仅在使用sendfile的时候使用 #tcp_nopush on; #开启目录列表访问,合适下载服务器,默认关闭。 #autoindex on; #告诉nginx不要缓存数据,而是一段一段的发送--当需要及时发送数据时,就应该给应用设置这个属性, #这样发送一小块数据信息时就不能立即得到返回值。 tcp_nodelay on; ##设置http链接请求完成之后 还要保持多长时间,单位是秒 keepalive_timeout 65; #gzip模块设置,使用 gzip 压缩可以降低网站带宽消耗,同时提升访问速度。 #开启gzip压缩输出 gzip on; #最小压缩文件大小,小于这个大小就不用压缩。 gzip_min_length 1k; #压缩缓冲区大小,表示申请4个单位为32K的内存作为压缩结果流缓存,默认值是申请与原始数据大小相同的内存空间来存储gzip压缩结果。 gzip_buffers 4 32k; #压缩版本(默认1.1,前端如果是squid2.5请使用1.0) gzip_http_version 1.1; #压缩比例,用来指定GZIP压缩比,1压缩比最小,处理速度最快,9压缩比最大,传输速度快,但是处理慢,也比较消耗CPU资源。 gzip_comp_level 4; #压缩类型,默认就已经包含textml,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。 gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript; #varyheader支持,改选项可以让前端的缓存服务器缓存经过GZIP压缩的页面,例如用Squid缓存经过nginx压缩的数据 gzip_vary on; #开启限制IP连接数的时候需要使用 #limit_zone crawler $binary_remote_addr 10m; #nginx的upstream目前支持4种方式的分配 #1、轮询(默认):每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。 #2、ip_hash:每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。 #3、fair(第三方):按后端服务器的响应时间来分配请求,响应时间短的优先分配。 #4、url_hash(第三方):按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。 #每个设备的状态设置为: #1.down表示单前的server暂时不参与负载 #2.weight为weight越大,负载的权重就越大。 #3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误 #4.fail_timeout:max_fails次失败后,暂停的时间。 #5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。 #负载均衡配置 upstream my_tomcat{ server 127.0.0.1:8081 weight=3 max_fails=3 fail_timeout=20s; server 127.0.0.1:8082 weight=3 max_fails=3 fail_timeout=20s; server 127.0.0.1:8083 weight=4 max_fails=3 fail_timeout=20s; } # 这种方式通常用于,是否限速依赖于指定条件的时候 #if ($slow) { # set $limit_rate 4k; #} #配置虚拟主机的相关参数,一个http中可以有多个server。 #main段和events段对全局有效,称为全局配置。 server { #监听端口 listen 81; #域名可以有多个,用空格隔开 server_name localhost localhost; #charset koi8-r; #访问日志,设置本虚拟主机的日志路径和级别 #级别依次为:debug|info|notice|warn|error|crit|alert|emerg #access_log logs/host.access.log main; #error_log logs/error.log; #匹配URI的方式,按优先级依次为: # =PATH 精确匹配路径 # ^~PATH 使用正则表达式匹配URI的前半段 # ~PATH 使用正则表达式匹配URI,区分大小写 # ~*PATH 使用正则表达式匹配URI,不区分大小写 # PATH 直接使用PATH匹配,表示在PATH路径下的资源 #location块:配置请求的路由,以及各种页面的处理情况。 location / { #和上面的upstream 一致,这样就可以 proxy_pass http://my_tomcat; proxy_redirect off; #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #服务器响应限速,下面配置的是 http请求传输500k后,开始限速。 #limit_rate_after 500k; #limit_rate 50k; #访问控制 #deny 192.168.1.1; #allow 192.168.1.0/24; #deny all; } #图片缓存时间设置 location ~ .*.(gif|jpg|jpeg|png|bmp|swf)$ { expires 10d; access_log off; } #JS和CSS缓存时间设置 location ~ .*.(js|css)?$ { expires 1h; access_log off; } #防止盗链 location ~*^.+\.(jpg|gif|png|swf|flv|wma|wmv|asf|mp3|mmf|zip|rar)$ { valid_referers noneblocked localhost; if($invalid_referer) { return 404; break; } access_log off; } proxy_connect_timeout 1; proxy_read_timeout 1; proxy_send_timeout 1; #定义错误页面 #error_page 404 /404.html; # redirect server error pages to the static page /50x.html error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } # proxy the PHP scripts to Apache listening on 127.0.0.1:80 # #location ~ \.php$ { # proxy_pass http://127.0.0.1; #} # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000 # #location ~ \.php$ { # root html; # fastcgi_pass 127.0.0.1:9000; # fastcgi_index index.php; # fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name; # include fastcgi_params; #} # deny access to .htaccess files, if Apache's document root # concurs with nginx's one # #location ~ /\.ht { # deny all; #} } # another virtual host using mix of IP-, name-, and port-based configuration # #server { # listen 8000; # listen somename:8080; # server_name somename alias another.alias; # location / { # root html; # index index.html index.htm; # } #} # HTTPS server # #server { # listen 443 ssl; # server_name localhost; # ssl_certificate cert.pem; # ssl_certificate_key cert.key; # ssl_session_cache shared:SSL:1m; # ssl_session_timeout 5m; # ssl_ciphers HIGH:!aNULL:!MD5; # ssl_prefer_server_ciphers on; # location / { # root html; # index index.html index.htm; # } #} }