浅谈Nginx服务器的内部核心架构设计
前言
Nginx 是一个 免费的 , 开源的 , 高性能 的 HTTP 服务器和 反向代理 ,以及 IMAP / POP3代理服务器。 Nginx 以其高性能,稳定性,丰富的功能,简单的配置和低资源消耗而闻名。 Nginx 是一个 Web 服务器,也可以用作 反向代理 , 负载均衡器 和 HTTP 缓存 。
很多高知名度的网站都使用 Nginx ,如: Netflix , GitHub , SoundCloud , MaxCDN 等。
正文
1. Nginx的整体架构
1.1. 主进程
Nginx 启动时,会生成两种类型的 进程 *,一个是 主进程 ( master ), 一个 ( windows版本的目前只有一个)或 多个工作进程 ( worker )。 主进程 并不处理网络请求,主要负责 调度工作进程 ,也就是图示的 3 项: 加载配置 、 启动工作进程 及 非停升级 。所以, Nginx 启动以后,查看操作系统的进程列表,我们就能看到 至少有两个 Nginx 进程。
1.2. 工作进程
服务器实际 处理网络请求 及 响应 的是 工作进程 ( worker ),在类 unix 系统上, Nginx可以配置 多个 worker ,而每个 worker 进程 都可以同时处理 数以千计 的 网络请求 。
1.3. 模块化设计
Nginx 的 worker 进程,包括 核心 和 功能性模块 , 核心模块 负责维持一个 运行循环 ( run-loop ),执行网络请求处理的 不同阶段 的模块功能,比如: 网络读写 、 存储读写 、 内容传输 、 外出过滤 ,以及 将请求发往上游服务器 等。而其代码的 模块化设计 ,也使得我们可以根据需要对 功能模块 进行适当的 选择 和 修改 ,编译成具有 特定功能 的服务器。
1.4. 事件驱动模型
基于 异步及非阻塞 的 事件驱动模型 ,可以说是 Nginx 得以获得 高并发 、 高性能 的关键因素,同时也得益于对 Linux 、 Solaris 及类 BSD 等操作系统内核中 事件通知 及 I/O 性能增强功能 的采用,如 kqueue 、 epoll 及 event ports 。
1.5. 代理(proxy)设计
代理设计,可以说是 Nginx 深入骨髓的设计,无论是对于 HTTP ,还是对于 FastCGI 、 Memcache 、 Redis 等的网络请求或响应,本质上都采用了 代理机制 。所以, Nginx 天生就是高性能的 代理服务器 。
2. Nginx的模块化设计
高度模块化的设计是 Nginx 的架构基础。 Nginx 服务器被分解为 多个模块 ,每个模块就是一个 功能模块 ,只负责自身的功能,模块之间严格遵循 “高内聚,低耦合” 的原则。
2.1. 核心模块
核心模块是 Nginx 服务器正常运行 必不可少 的模块,提供 错误日志记录 、 配置文件解析、 事件驱动机制 、 进程管理 等核心功能。
2.2. 标准HTTP模块
标准 HTTP 模块提供 HTTP 协议解析相关的功能,比如: 端口配置 、 网页编码设置 、 HTTP响应头设置 等等。
2.3. 可选HTTP模块
可选 HTTP 模块主要用于 扩展 标准的 HTTP 功能,让 Nginx 能处理一些特殊的服务,比如: Flash 多媒体传输 、解析 GeoIP 请求、 网络传输压缩 、 安全协议 SSL 支持等。
2.4. 邮件服务模块
邮件服务模块主要用于支持 Nginx 的 邮件服务 ,包括对 POP3 协议、 IMAP 协议和 SMTP协议的支持。
2.5. 第三方模块
第三方模块是为了扩展 Nginx 服务器应用,完成开发者自定义功能,比如: Json 支持、 Lua 支持等。
3. Nginx的请求方式处理
Nginx 是一个 高性能 的 Web 服务器,能够同时处理 大量的并发请求 。它结合 多进程机制和 异步机制 ,异步机制使用的是 异步非阻塞方式 ,接下来就给大家介绍一下 Nginx 的 多线程机制 和 异步非阻塞机制 。
3.1. 多进程机制
服务器每当收到一个客户端时,就有 服务器主进程 ( master process )生成一个 子进程( worker process )出来和客户端建立连接进行交互,直到连接断开,该子进程就结束了。
使用 进程 的好处是 各个进程之间相互独立 , 不需要加锁 ,减少了使用锁对性能造成影响,同时降低编程的复杂度,降低开发成本。其次,采用独立的进程,可以让 进程互相之间不会影响 ,如果一个进程发生异常退出时,其它进程正常工作, master 进程则很快启动新的 worker 进程,确保服务不会中断,从而将风险降到最低。
缺点是操作系统生成一个 子进程 需要进行 内存复制 等操作,在 资源 和 时间 上会产生一定的开销。当有 大量请求 时,会导致 系统性能下降 。
3.2. 异步非阻塞机制
每个 工作进程 使用 异步非阻塞方式 ,可以处理 多个客户端请求 。
当某个 工作进程 接收到客户端的请求以后,调用 IO 进行处理,如果不能立即得到结果,就去 处理其他请求 (即为 非阻塞 );而 客户端 在此期间也 无需等待响应 ,可以去处理其他事情(即为 异步 )。
当 IO 返回时,就会通知此 工作进程 ;该进程得到通知,暂时 挂起 当前处理的事务去 响应客户端请求 。
4. Nginx事件驱动模型
在 Nginx 的 异步非阻塞机制 中, 工作进程 在调用 IO 后,就去处理其他的请求,当 IO 调用返回后,会 通知 该 工作进程 。对于这样的系统调用,主要使用 Nginx 服务器的 事件驱动模型 来实现。
如上图所示, Nginx 的 事件驱动模型 由 事件收集器 、 事件发送器 和 事件处理器 三部分基本单元组成。
-
事件收集器:负责收集 worker 进程的各种 IO 请求;
-
事件发送器:负责将 IO 事件发送到 事件处理器 ;
-
事件处理器:负责各种事件的 响应工作 。
事件发送器将每个请求放入一个 待处理事件列表 ,使用非阻塞 I/O 方式调用 事件处理器 来处理该请求。其处理方式称为 “多路 IO 复用方法” ,常见的包括以下三种: select 模型、 poll模型、 epoll 模型。
5. Nginx进程处理模型
Nginx 服务器使用 master/worker 多进程模式 。多线程启动和执行的流程如下:
-
主程序 Master process 启动后,通过一个 for 循环来 接收 和 处理外部信号 ;
-
主进程通过 fork() 函数产生 worker 子进程 ,每个 子进程 执行一个 for 循环来实现 Nginx 服务器 对事件的接收 和 处理 。
一般推荐 worker 进程数 与 CPU 内核数 一致,这样一来不存在 大量的子进程 生成和管理任务,避免了进程之间 竞争 CPU 资源 和 进程切换 的开销。而且 Nginx 为了更好的利用 多核特性 ,提供了 CPU 亲缘性 的绑定选项,我们可以将某 一个进程绑定在某一个核 上,这样就不会因为 进程的切换 带来 Cache 的失效。
对于每个请求,有且只有一个 工作进程 对其处理。首先,每个 worker 进程都是从 master进程 fork 过来。在 master 进程里面,先建立好需要 listen 的 socket(listenfd) 之后,然后再 fork 出多个 worker 进程。
所有 worker 进程的 listenfd 会在 新连接 到来时变得 可读 ,为保证只有一个进程处理该连接,所有 worker 进程在注册 listenfd 读事件 前 抢占 accept_mutex ,抢到 互斥锁 的那个进程 注册 listenfd 读事件 ,在 读事件 里调用 accept 接受该连接。
当一个 worker 进程在 accept 这个连接之后,就开始 读取请求 , 解析请求 , 处理请求 ,产生数据后,再 返回给客户端 ,最后才 断开连接 ,这样一个完整的请求就是这样的了。我们可以看到,一个请求,完全由 worker 进程来处理,而且只在一个 worker 进程中处理。
在 Nginx 服务器的运行过程中, 主进程 和 工作进程 需要进程交互。交互依赖于 Socket 实现的 管道 来实现。
5.1. 主进程与工作进程交互
这条管道与普通的管道不同,它是由 主进程 指向 工作进程 的 单向管道 ,包含主进程向工作进程发出的 指令 , 工作进程 ID 等;同时 主进程 与外界通过 信号通信 ;每个 子进程 具备 接收信号 ,并处理相应的事件的能力。
5.2. 工作进程与工作进程交互
这种交互是和 主进程-工作进程 交互是基本一致的,但是会通过 主进程 间接完成。 工作进程之间是 相互隔离 的,所以当工作进程 W1 需要向工作进程 W2 发指令时,首先找到 W2 的 进程ID ,然后将正确的指令写入指向 W2 的 通道 。 W2 收到信号采取相应的措施。
小结
通过这篇文章,我们对 Nginx 服务器的 整体架构 有了一个整体的认识。包括其 模块化的设计、 多进程 和 异步非阻塞 的请求处理方式、 事件驱动模型 等。通过这些理论知识,才能更好地领悟 Nginx 的设计思想。对于我们学习 Nginx 来说有很大的帮助。