005-Nginx 配置文件nginx.conf详解
一、概述
默认启动Nginx时,使用的配置文件是: 安装路径/conf/nginx.conf 文件,可以在启动nginx的时候,通过-c来指定要读取的配置文件
常见的核心模块指令,大部分都是放置在配置文件的顶部具体的指令,请参看nginx的官方文档,非常详细,参见:http://nginx.org/en/docs/ngx_core_module.html
1.1、核心模块指令
重点看看:error_log、include、pid、user、worker_cpu_affinity、worker_processes
1.1.1、日志模块指令 error_log
日志有6个级别:debug|info|notice|warn|error|crit;Nginx支持将不同的虚拟主机的日志记录在不同的地方,如下示例:
http{ error_log logs/http_error.log error; server{ server_name one; access_log logs/one_access.log; error_log logs/one_error.log error; } server{ server_name two; access_log logs/two_access.log; error_log logs/two_error.log error; } }
注意:error_log off不是禁用日志,而是创建一个名为off的日志,要禁用日志,可以这么写:error_log /dev/null crit;
1.1.2、事件模块指令
重点看看:use和worker_connections
1.1.3、HTTP配置
Nginx的HTTP配置主要包括三个区块,结构如下:
http { // 这个是协议级别 include mime.types; default_type application/octet-stream; keepalive_timeout 65; gzip on; server { // 这个是服务器级别 listen 80; server_name localhost; location / { // 这个是请求级别 root html; index index.html index.htm; } } }
引入文件include
语法:include file|''
默认值:none
示例:include domain/*.conf;
pid
语法:pid file
默认值:编译时指定
pid /var/log/nginx.pid
指定pid文件,可以使用kill发送信号
user
语法:user user 【group】
默认值:user nobody nobody
如果主进程以root运行,Nginx会调用seruid()和setgid()来设置用户/组,如果没有指定组,那么将使用用户名相同的组,默认情况下会使用nobody nobody组(或nogroup),或者在编译时指定-user=USRE 和-group=GROUP的值
worker_cpu_affinity
语法:worker_cpu_affinity cpumask [cpumask ……]
默认值:none
仅支持linux系统。允许将工作进程指定到cpu上,它调用sched_setaffinity() 函数:
worker_process 4;
worker_cpu_affinity 0001 0010 0100 1000;
指定每个进程到一个cpus
worker_process 2;
worker_cpu_affinity 0101 1010;
指定第一进程到CPU0/CPU2上,第二个进程到CPU1/CPU3比较好。
Nginx的HTTP核心模块,包括大量的指令和变量,大都很重要,具体参见:http://nginx.org/en/docs/http/ngx_http_core_module.html
Nginx的配置文件nginx.conf配置详解如下:
user nginx nginx ; # Nginx用户及组:用户 组。window下不指定 worker_processes 8; # 工作进程【单线程进程】:数目。根据硬件调整,通常等于CPU数量或者2倍于CPU。 error_log logs/error.log; error_log logs/error.log notice; error_log logs/error.log info; # 错误日志:存放路径。 pid logs/nginx.pid; #pid(进程标识符):存放路径。 worker_rlimit_nofile 204800; # 指定进程可以打开的最大描述符:数目。 # 这个指令是指当一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit -n)与nginx进程数相除,但是nginx分配请求并不是那么均匀,所以最好与ulimit -n 的值保持一致。 # 现在在linux 2.6内核下开启文件打开数为65535,worker_rlimit_nofile就相应应该填写65535。 # 这是因为nginx调度时分配请求到进程并不是那么的均衡,所以假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。 events { use epoll; # 使用epoll的I/O 模型。linux建议epoll,FreeBSD建议采用kqueue,window下不指定。 # 补充说明: # 与apache相类,nginx针对不同的操作系统,有不同的事件模型 # A)标准事件模型 # Select、poll属于标准事件模型,如果当前系统不存在更有效的方法,nginx会选择select或poll # B)高效事件模型\ # Kqueue:使用于FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用双处理器的MacOS X系统使用kqueue可能会造成内核崩溃。 # Epoll:使用于Linux内核2.6版本及以后的系统。 # /dev/poll:使用于Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+ # Eventport:使用于Solaris 10。 为了防止出现内核崩溃的问题, 有必要安装安全补丁。 worker_connections 204800; # 每个工作进程的最大连接数量。根据硬件调整,和前面工作进程配合起来用,尽量大,但是别把cpu跑到100%就行。每个进程允许的最多连接数,理论上每台nginx服务器的最大连接数为。worker_processes*worker_connections keepalive_timeout 60; # keepalive超时时间。 client_header_buffer_size 4k; # 客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求头的大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。 # 分页大小可以用命令getconf PAGESIZE 取得。 # getconf PAGESIZE # 4096 # 但也有client_header_buffer_size超过4k的情况,但是client_header_buffer_size该值必须设置为“系统分页大小”的整倍数。 open_file_cache max=65535 inactive=60s; # 这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存。 open_file_cache_valid 80s; # 这个是指多长时间检查一次缓存的有效信息。 open_file_cache_min_uses 1; # open_file_cache指令中的inactive参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在inactive时间内一次没被使用,它将被移除。 } # 设定http服务器,利用它的反向代理功能提供负载均衡支持 http{ include mime.types; # 设定mime类型,类型由mime.type文件定义 default_type application/octet-stream; log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"'; log_format log404 '$status [$time_local] $remote_addr $host$request_uri $sent_http_location'; # 日志格式设置。 # $remote_addr与$http_x_forwarded_for用以记录客户端的ip地址; # $remote_user:用来记录客户端用户名称; # $time_local: 用来记录访问时间与时区; # $request: 用来记录请求的url与http协议; # $status: 用来记录请求状态;成功是200, # $body_bytes_sent :记录发送给客户端文件主体内容大小; # $http_referer:用来记录从那个页面链接访问过来的; # $http_user_agent:记录客户浏览器的相关信息; # 通常web服务器放在反向代理的后面,这样就不能获取到客户的IP地址了,通过$remote_add拿到的IP地址是反向代理服务器的iP地址。反向代理服务器在转发请求的http头信息中,可以增加x_forwarded_for信息,用以记录原有客户端的IP地址和原来客户端的请求的服务器地址。 access_log logs/host.access.log main; access_log logs/host.access.404.log log404; #用了log_format指令设置了日志格式之后,需要用access_log指令指定日志文件的存放路径; server_names_hash_bucket_size 128; #保存服务器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。参数hash bucket size总是等于hash表的大小,
#并且是一路处理器缓存大小的倍数。在减少了在内存中的存取次数后,使在处理器中加速查找hash表键值成为可能。如果hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,
¥最坏的情况下在内存中查找的次数为2。第一次是确定存储单元的地址,第二次是在存储单元中查找键 值。因此,如果Nginx给出需要增大hash max size 或 hash bucket size的提示,那么首要的是增大前一个参数的大小. client_header_buffer_size 4k; # 客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求的头部大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。分页大小可以用命令getconf PAGESIZE取得。 large_client_header_buffers 8 128k; # 客户请求头缓冲大小。nginx默认会用client_header_buffer_size这个buffer来读取header值,如果 # header过大,它会使用large_client_header_buffers来读取。 open_file_cache max=102400 inactive=20s; # 个指令指定缓存是否启用。 # 例: open_file_cache max=1000 inactive=20s; # open_file_cache_valid 30s; # open_file_cache_min_uses 2; # open_file_cache_errors on; # open_file_cache_errors # 语法:open_file_cache_errors on | off 默认值:open_file_cache_errors off 使用字段:http, server, location 这个指令指定是否在搜索一个文件是记录cache错误. # open_file_cache_min_uses # 语法:open_file_cache_min_uses number 默认值:open_file_cache_min_uses 1 使用字段:http, server, location 这个指令指定了在open_file_cache指令无效的参数中一定的时间范围内可以使用的最小文件数,如果使用更大的值,文件描述符在cache中总是打开状态. # open_file_cache_valid # 语法:open_file_cache_valid time 默认值:open_file_cache_valid 60 使用字段:http, server, location 这个指令指定了何时需要检查open_file_cache中缓存项目的有效信息. client_max_body_size 300m; # 设定通过nginx上传文件的大小 sendfile on; # sendfile指令指定 nginx 是否调用sendfile 函数(zero copy 方式)来输出文件,对于普通应用,必须设为on。如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络IO处理速度,降低系统uptime。 tcp_nopush on; # 此选项允许或禁止使用socke的TCP_CORK的选项,此选项仅在使用sendfile的时候使用 proxy_connect_timeout 90; # 后端服务器连接的超时时间_发起握手等候响应超时时间 proxy_read_timeout 180; # 连接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也可以说是后端服务器处理请求的时间) proxy_send_timeout 180; # 后端服务器数据回传时间_就是在规定时间之内后端服务器必须传完所有的数据 proxy_buffer_size 256k; # 设置从被代理服务器读取的第一部分应答的缓冲区大小,通常情况下这部分应答中包含一个小的应答头,默认情况下这个值的大小为指令proxy_buffers中指定的一个缓冲区的大小,不过可以将其设置为更小 proxy_buffers 4 256k; # 设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认情况也为分页大小,根据操作系统的不同可能是4k或者8k proxy_busy_buffers_size 256k; proxy_temp_file_write_size 256k; # 设置在写入proxy_temp_path时数据的大小,预防一个工作进程在传递文件时阻塞太长 proxy_temp_path /data0/proxy_temp_dir; # proxy_temp_path和proxy_cache_path指定的路径必须在同一分区 proxy_cache_path /data0/proxy_cache_dir levels=1:2 keys_zone=cache_one:200m inactive=1d max_size=30g; # 设置内存缓存空间大小为200MB,1天没有被访问的内容自动清除,硬盘缓存空间大小为30GB。 keepalive_timeout 120; # keepalive超时时间。 tcp_nodelay on; client_body_buffer_size 512k; # 如果把它设置为比较大的数值,例如256k,那么,无论使用firefox还是IE浏览器,来提交任意小于256k的图片,都很正常。如果注释该指令,使用默认的client_body_buffer_size设置,也就是操作系统页面大小的两倍,8k或者16k,问题就出现了。 # 无论使用firefox4.0还是IE8.0,提交一个比较大,200k左右的图片,都返回500 Internal Server Error错误 proxy_intercept_errors on; # 表示使nginx阻止HTTP应答代码为400或者更高的应答。 upstream bakend { server 127.0.0.1:8027; server 127.0.0.1:8028; server 127.0.0.1:8029; hash $request_uri; } # nginx的upstream目前支持4种方式的分配 # 1、轮询(默认) # 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。 # 2、weight # 指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。 # 例如: # upstream bakend { # server 192.168.0.14 weight=10; # server 192.168.0.15 weight=10; # } # 2、ip_hash # 每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。 # 例如: # upstream bakend { # ip_hash; # server 192.168.0.14:88; # server 192.168.0.15:80; # } # 3、fair(第三方) # 按后端服务器的响应时间来分配请求,响应时间短的优先分配。 # upstream backend { # server server1; # server server2; # fair; # } # 4、url_hash(第三方) # 按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。 # 例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法 # upstream backend { # server squid1:3128; # server squid2:3128; # hash $request_uri; # hash_method crc32; # } # tips: # upstream bakend{#定义负载均衡设备的Ip及设备状态}{ # ip_hash; # server 127.0.0.1:9090 down; # server 127.0.0.1:8080 weight=2; # server 127.0.0.1:6060; # server 127.0.0.1:7070 backup; # } # 在需要使用负载均衡的server中增加 # proxy_pass http://bakend/; # 每个设备的状态设置为: # 1.down表示单前的server暂时不参与负载 # 2.weight为weight越大,负载的权重就越大。 # 3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误 # 4.fail_timeout:max_fails次失败后,暂停的时间。 # 5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。 # nginx支持同时设置多组的负载均衡,用来给不用的server来使用。 # client_body_in_file_only设置为On 可以讲client post过来的数据记录到文件中用来做debug # client_body_temp_path设置记录文件的目录 可以设置最多3层目录 # location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡 ##配置虚拟机 server{ listen 80; # 配置监听端口 server_name image.***.com; # 配置访问域名 location ~* \.(mp3|exe)$ { # 对以“mp3或exe”结尾的地址进行负载均衡 proxy_pass http://img_relay$request_uri; # 设置被代理服务器的端口或套接字,以及URL proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; # 以上三行,目的是将代理服务器收到的用户的信息传到真实服务器上 } location /face { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; error_page 404 502 = @fetch; } location @fetch { access_log /data/logs/face.log log404; rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } location /image { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; error_page 404 502 = @fetch; } location @fetch { access_log /data/logs/image.log log404; rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } # 将 /data请求转发反向代理至http://data.com:8081; location /data { proxy_next_upstream http_500 http_502 http_503 http_504 error timeout invalid_header; proxy_set_header Host data.com:8081; proxy_set_header X-Real-IP $http_x_forwarded_for; proxy_set_header REMOTE-HOST $http_x_forwarded_for; proxy_set_header X-Forwarded-For $http_x_forwarded_for; proxy_set_header HEADER-APP-FROM-MARK data; proxy_pass http://data.com:8081; expires 0; } } }
更多配置:
注释:变量
Ngx_http_core_module模块支持内置变量,他们的名字和apache的内置变量是一致的。
首先是说明客户请求title中的行,例如$http_user_agent,$http_cookie等等。
此外还有其它的一些变量
$args此变量与请求行中的参数相等
$content_length等于请求行的“Content_Length”的值。
$content_type等同与请求头部的”Content_Type”的值
$document_root等同于当前请求的root指令指定的值
$document_uri与$uri一样
$host与请求头部中“Host”行指定的值或是request到达的server的名字(没有Host行)一样
$limit_rate允许限制的连接速率
$request_method等同于request的method,通常是“GET”或“POST”
$remote_addr客户端ip
$remote_port客户端port
$remote_user等同于用户名,由ngx_http_auth_basic_module认证
$request_filename当前请求的文件的路径名,由root或alias和URI request组合而成
$request_body_file
$request_uri含有参数的完整的初始URI
$query_string与$args一样
$sheeme http模式(http,https)尽在要求是评估例如
Rewrite ^(.+)$ $sheme://example.com$; Redirect;
$server_protocol等同于request的协议,使用“HTTP/或“HTTP/
$server_addr request到达的server的ip,一般获得此变量的值的目的是进行系统调用。为了避免系统调用,有必要在listen指令中指明ip,并使用bind参数。
$server_name请求到达的服务器名
$server_port请求到达的服务器的端口号
$uri等同于当前request中的URI,可不同于初始值,例如内部重定向时或使用index