Ngix下载、安装。使用:正向代理、反向代理、负载均衡。常用命令和配置文件

一,什么是Ngix?
Ngix是高性能的http和反向代理的web服务器,处理并发能力非常强大,能经受高负载的考验,可经受50,000个并发连接
其特点是占有能存少,并发能力强

二,正向代理
把局域网外地Internet想象成一个巨大的资源库,局域网内的客户端要访问Internet,则需要代理服务器来访问,这种代理服务器成为正向代理
正向代理:
通过代理服务器访问服务器的过程,就叫正向代理
需要在客户端配置代理服务器进行指定网站访问

三,反向代理
客户端对反向代理是无感的,因为客户端不需要任何配置就可访问,我们只需要将请求发送到反向代理服务器,反向代理服务器去选择目标服务器获取数据并返回,此时代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器IP隐藏的是真正服务器IP

四,负载均衡
增加服务器的数量将请求分发到不同服务器,将负载分摊到多个服务器,也就是我们所说的负载均衡

  

 

 

 

五,动静分离

  为加快服务器的解析速度,将动态页面和静态页面由不同的服务器来解析,加快解析速度,降低服务器压力

 

 

 六,Ngix配置文件

worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;

    server {
        listen       80;
        server_name  localhost;

        location / {
            root   html;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

  ngix的配置文件有三部分组成

第一部分:全局块

  

  从配置文件开始到 events 块之间的内容,主要会设置一些影响nginx 服务器整体运行的配置指令,主要包括配 置运行 Nginx 服务器的用户(组)、允许生成的 worker process     数,进程 PID 存放路径、日志存放路径和类型以 及配置文件的引入等。
  比如上面第一行配置的:

worker_processes 1;

  

  这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是 会受到硬件、软件等设备的制约。


第二部分:events块

events {
    worker_connections  1024;
}

  events 块涉及的指令**主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否 允许同时接收多个网络连接,        选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。**
   上述例子就表示每个 work process 支持的最大连接数为 1024.
    这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。


第三部分:

  

http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;

    server {
        listen       80;
        server_name  localhost;

        location / {
            root   html;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

  这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。

  需要注意的是:http 块也可以包括 http全局块、server 块。

  

  • http全局块

  http全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

  • server 块

  这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了 节省互联网服务器硬件成本。
  每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。
  而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。

  • 全局 server 块

  最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或IP配置。

  • location 块

  一个 server 块可以配置多个 location 块。
  这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称 (也可以是IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹      配,对特定的请求进行处理。 地址定向、数据缓 存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

七、 Nginx 反向代理 配置实例 1.1

  1.实现效果

  实现效果:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中
  nginx 监听端口为 9001,
  访问 http://127.0.0.1:9001/edu/ 直接跳转到 127.0.0.1:8081
  访问 http://127.0.0.1:9001/vod/ 直接跳转到 127.0.0.1:8082
  2.准备工作

  

a. 第一步,两个tomcat端口和测试页面

准备两个 tomcat,一个 8081 端口,一个 8082 端口。
  在**/usr/feng/apach-tomcat/下 新建tomcat8081和tomcat8082两个文件夹,将 Tomcat安装包 分别上传到两个文件夹,进行解压缩安装,8081的Tomcat只改一个http协议默认端口号** 就行,直接启动即可。
  这里需要改8082的端口号,需要修改三个端口,只修改一个端口号的话,是启动不了的,我已经测试过了(如果只修改http协议默认端口的话,8081和8082只会启动一个)。因为默认的都是8080(没有的直接创建文件夹,好多都是刚建的,与上面的第一个示例示例有点改

  1. tomcat8081 解压包,然后进入到 /bin 下 ,使用命令 ./startup 启动 

tomcat8082
使用命令 编辑 文件 :/conf/server.xml 文件
vim server.xml
修改后如下:
  1、修改server 的默认端口,由默认8005->8091 

    

 

 

   2、修改http协议的默认端口,由默认的8080->8082

    

 

 

 

    • 并准备好测试的页面
      写一个a.html页面,
      tomcat8081的tomcat,放到目录 /webapp/vod 下,内容:
    • <h1>fengfanchen-nginx-8081!!!</h1>
      

      tomcat8082的tomcat,放到目录 /webapp/edu 下,内容:

    • <h1>fengfanchen-nginx-8082!!!</h1>
      

        测试页面

    •  

       

      b. 第二步,修改 nginx 的配置文件

      修改 nginx 的配置文件 在 http 块中添加 server{}
      修改其中注释的就行。

    •  

       修改成功后

 

      • 开发的端口: nginx监听端口:8001,tomcat8081端口:8081,tomcat8082端口:8082。
      • 测试结果

    

 

 

     

 

 

     

  • location 指令说明

  

  该指令用于匹配 URL。
  语法如下:

  1、= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配 成功,就停止继续向下搜索并立即处理该请求。
  2、~:用于表示 uri 包含正则表达式,并且区分大小写。
  3、~*:用于表示 uri 包含正则表达式,并且不区分大小写。
  4、^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字 符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则   uri 和请求字符串做匹配。

  注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~*标识。

八,Ngix 负载均衡实例

  1.实现效果

  浏览器地址栏输入地址 http://208.208.128.122/edu/a.html,负载均衡效果,平均 8081 和 8082 端口中 

  2.准备工作

  a.准备两台tomcat服务器 

  • 准备两台tomcat服务器,一台8081,一台8082
  • 在上边反向代理配置的基础上做如下修改

  修改一处

  • 在两台tomcat里边webapps 目录中,创建名称为 edu 文件夹,在 edu 文件夹中创建 页面 a.html,用于测试。
  • 由于第二个实例中,8082中有了 edu 的文件夹,所以只在8081 文件夹下创建即可。

  然后使用在vod文件下使用命令:

  

cp a.html ../edu/

  即可完成,
  查看命令

cd ../edu/  # 进入到 edu 目录下
cat a.html  #查看内容

  c.测试页面

  测试URL

http://208.208.128.122:8081/edu/a.html

  

 

 

http://208.208.128.122:8082/edu/a.html

  

 

 3.在ngix配置文件中进行负载均衡的配置

修改了配置

  

upstream myserver {
        server 208.208.128.122:8081;
        server 208.208.128.122:8082;
    }
    server {
        listen       80;
        server_name  208.208.128.122;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {
            root   html;
            proxy_pass   http://myserver;
            #proxy_pass   http://127.0.0.1:8081;
            index  index.html index.htm;
    }

  九,Ngix分配服务器的策略

  1.   轮询(默认)

    最基本的配置方法,它是upstream的默认策略,每个请求会按时间顺序逐一分配到不同的后端服务器。

    参数有:

参数描述
fail_timeout 与max_fails结合使用
max_fails 设置在fail_timeout参数设置的时间内最大失败次数,如果在这个时间内,所有针对该服务器的请求都失败了,那么认为该服务器会被认为是停机了
fail_time 服务器会被认为停机的时间长度,默认为10s。
backup 标记该服务器为备用服务器。当主服务器停止时,请求会被发送到它这里。
down 标记服务器永久停机了。

    

参数描述
fail_timeout 与max_fails结合使用
max_fails 设置在fail_timeout参数设置的时间内最大失败次数,如果在这个时间内,所有针对该服务器的请求都失败了,那么认为该服务器会被认为是停机了
fail_time 服务器会被认为停机的时间长度,默认为10s。
backup 标记该服务器为备用服务器。当主服务器停止时,请求会被发送到它这里。
down 标记服务器永久停机了。

    注意:

    • 在轮询中,如果服务器down掉了,会自动剔除该服务器。
    • 缺省配置就是轮询策略。
    • 此策略适合服务器配置相当,无状态且短平快的服务使用。

   2.权重

    在轮询策略的基础上制定沦陷的几率。例如

 upstream foo {
    server localhost:8001 weight=2;
    server localhost:8002;
    server localhost:8003 backup;
    server localhost:8004 max_fails=3 fail_timeout=20s;
}

  
  这里例子中,weight参数用于制定轮询的几率,weight默认值为1;weight的数值和被访问的几率成正比。

  注意:

  • 权重越高分配到需要处理的请求越多。
  • 此策略可以与least_conn和ip_hash结合使用。
  • 此策略比较适合服务器的硬件配置差别比较大的情况。

 3.ip_hash

  负载均衡器按照客户端IP地址的分配方式,可以确保相同客户端的请求一直发送到相同的服务器。这样每个访客都固定访问一个后端服务器。

upstream foo {
    ip_hash;
    server localhost:8001 weight=2;
    server localhost:8002;
    server localhost:8003;
    server localhost:8004 max_fails=3 fail_timeout=20s;
}

  

  注意:

  • 在nginx版本1.3.1之前,不能在ip_hash中使用权重(weight)。
  • ip_hash不能与backup同时使用。
  • 此策略适合有状态服务,比如session。
  • 当有服务器需要剔除,必须手动down掉。

  4.least_conn 最小连接

    把请求转发给连接数较少的后端服务器。轮询算法是把请求平均的转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较           高。这种情况下,least_conn这种方式就可以达到更好的负载均衡效果

  

upstream foo {
    least_conn;
    server localhost:8001 weight=2;
    server localhost:8002;
    server localhost:8003 backup;
    server localhost:8004 max_fails=3 fail_timeout=20s;
}

  

  注意:

  • 此负载均衡策略适合请求处理时间长短不一造成服务器过载的情况。

  除了上面这些调度策略之后,还有一些第三方的调度策略可以集成到nginx中。

  在实际运用中,需要根据不同的场景选择不同的策略,大多是多种策略结合使用以达到实际需求的性能。

十.Ngix的高可用集群

  1.什么是Ngix高可用

  

 

 

   

    配置示例流程:

    1. 需要两台nginx 服务器
    2. 需要keepalived
    3. 需要虚拟IP

  2.配置高可用的准备工作

    

    1. 需要两台服务器 208.208.128.122 和 208.208.128.85
    2. 在两台服务器安装 nginx(流程最上面有)
      第二台服务器的默认端口 改为 9001 ,运行并测试,如下:
    3.  

    4. 在两台服务器安装 keepalived

  

  2. 在两台服务器安装keepalived

    a)安装:

 

      第一种方式:命令安装

 

  

yum install keepalived -y
# 查看版本:
rpm -q -a keepalived

  第二种方式:安装包方式(这里我使用这个)
  将压缩包上传至:/usr/feng/
  命令如下:

    

cd /usr/feng/
tar -zxvf keepalived-2.0.18.tar.gz
cd keepalived-2.0.18
./configure
make && make install

b) 配置文件

    安装之后,在 etc 里面生成目录 keepalived,有文件 keepalived.conf 。
  这个就是主配置文件。
  主从模式主要在这个文件里配置。

  

3.完成高可用配置(主从配置)

  a) 修改 keepalived.conf 配置文件

    修改/etc/keepalived/keepalivec.conf 配置文件

    

global_defs { 
   notification_email { 
     acassen@firewall.loc 
     failover@firewall.loc 
     sysadmin@firewall.loc 
   } 
   notification_email_from Alexandre.Cassen@firewall.loc 
   smtp_server 208.208.128.122
   smtp_connect_timeout 30 
   router_id LVS_DEVEL 
} 
  
vrrp_script chk_http_port { 
  
   script "/usr/local/src/nginx_check.sh" 
   
   interval 2      #(检测脚本执行的间隔) 
  
   weight 2 
  
} 
  
vrrp_instance VI_1 {     
	state MASTER   # 备份服务器上将 MASTER 改为 BACKUP       
	interface ens192  //网卡     
	virtual_router_id 51   # 主、备机的 virtual_router_id 必须相同     
	priority 100     # 主、备机取不同的优先级,主机值较大,备份机值较小 
    advert_int 1 
    authentication { 
        auth_type PASS 
        auth_pass 1111 
    } 
    virtual_ipaddress {         
		208.208.128.50 // VRRP H 虚拟地址 
    } 
}

  

  b) 添加检测脚本

    

#!/bin/bash
A=`ps -C nginx –no-header |wc -l`
if [ $A -eq 0 ];then
    /usr/local/nginx/sbin/nginx
    sleep 2
    if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
        killall keepalived
    fi
fi

  

  c) 开启nginx 和 keepalived

    把两台服务器上 nginx 和 keepalived 启动 :
    启动 nginx:./nginx
    启动 keepalived:systemctl start keepalived.service

    

 

 

   85服务一样。

  

4. 最终测试

  a)在浏览器地址栏输入 虚拟 ip 地址 192.168.17.50

  

 

 

   

 

 

   

    b)把主服务器(192.168.17.129)nginx 和 keepalived 停止,再输入 192.168.17.50

    

 

 

     

十一,Nginx 的原理

    1. mater 和 worker

    • nginx 启动后,是由两个进程组成的。master(管理者)和worker(工作者)。

    • 一个nginx 只有一个master。但可以有多个worker

    

 

 

     ,过来的请求由master管理,worker进行争抢式的方式去获取请求。

    

 

     

 

 

     

    2. master-workers 的机制的好处
    首先,对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销, 同时在编程以及问题查找时,也会方便很多。
    可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作
    其次,采用独立的进程,可以让互相之间不会 影响,一个进程退出后,其它进程还在工作,服务不会中断,master 进程则很快启动新的 worker 进程。当然,worker 进程的          异常退出,肯定是程序有 bug 了,异常退出,会导致当 前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险。
    3. 设置多少个 worker
    Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进 程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求    也不在话 下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带  来的损耗。

    worker 数和服务器的 cpu 数相等是最为适宜
    4. 连接数 worker_connection
    第一个:发送请求,占用了 woker 的几个连接数?

    答案:2 或者 4 个
    第二个:nginx 有一个 master,有四个 woker,每个 woker 支持最大的连接数 1024,支持的 最大并发数是多少?

    普通的静态访问最大并发数是: worker_connections * worker_processes /2,
    而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections * worker_processes/4。
    这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接 数,应该是 worker_connections * worker_processes。当然,这里说的是最大连  接数,对于 HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以  普通的静态访 问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代 理来说,最大并发数量应该是 worker_connections *   worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服 务的连接,会占用两个连接。
    

 

posted on 2022-01-24 12:07  木_-_木  阅读(1958)  评论(1编辑  收藏  举报