1. Nginx基础概念
1.1 是什么,做什么
Nginx (engine x) 是一个高性能的HTTP和反向代理web服务器,其特点是占有内存少,并发能力强,事实上nginx的并发能力在同类型的网页服务器中表现较好,Nginx专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率 。它支持内核Poll模型,能经受高负载的考验,有报告表明能支持高达 50,000个并发连接数。
1.2 反向代理
无法通过正常途径访问的网站,可以通过代理服务器来访问,此时,代理对象是客户端,称为正向代理
对于客户端,访问某个服务器之后,该服务器将请求转发给某个它代理的服务器,客户端是不知道自己究竟访问的哪台服务器,暴露给客户端的只有代理服务器,此时,代理对象是隐藏下来的服务器,称为反向代理
1.3 负载均衡
增加服务器的数量之后,通过代理服务器,将请求分发给不同的服务器,降低单个服务器的压力。
1.4 动静分离
将动态资源(jsp、servlet等)与静态资源(html、css、js等)分开放到不同的服务器中,当客户端请求静态资源时,只访问文件系统服务器,也就是存放静态资源的服务器,当客户端需要动态资源时,再去访问存放动态资源的服务器
2. Nginx安装、常用命令和配置软件
2.1 在Linux中安装Nginx
在安装nginx之前,需要先安装一些软件
- 安装pcre
- 将压缩文件放入linux中
- 解压 tar -zxvf pcre-8.37.tar.gz -C /usr/local/
- 进入解压目录,执行./configure
- 执行make && make install(如无法执行,则先执行yum -y install gcc gcc-c++,再执行一遍./configure即可)
- 执行pcre-config --version查看版本号,确认是否安装成功
- 安装其他依赖
yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel - 安装nginx
- 将压缩文件放入linux中
- 解压 tar -zxvf
- 进入解压目录,执行./configure
- 执行make && make install
- 进入目录 /usr/local/nginx/sbin/ 输入./nginx启动服务
2.2 Nginx常用命令
前提:需要进入到/usr/local/nginx/sbin中才能使用针对nginx的命令
查看版本号:./nginx -v 关闭nginx:./nginx -s stop 启动nginx:./nginx 重加载nginx:./nginx -s reload ,在配置文件更改后,可不重启nginx,通过重加载命令来使新的配置文件生效
2.3 Nginx配置文件
在nginx目录中而不是nginx-1.12.2中
配置文件主要分三大块:全局块、events块、http块
- 全局块:从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以及配置文件的引入等。如worker_processes 1:表示处理并发数的配置,值越大,可以支持的并发处理量越多
- events块:events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 work process 可以同时支持的最大连接数等。如worker_connections 1024; 表示每个worker_processes支持的最大连接数为1024,此块对nginx性能影响较大,需要灵活配置
- http块:包含http全局块、server块,这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。http 块又可以分为 http 全局块、server 块。
- http全局块:http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。
- server块:这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。而每个 server 块也分为全局 server 块,以及可以同时包含多个 location 块。
- 全局server块:最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。
- location块:一个 server 块可以配置多个 location 块。这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓
存和应答控制等功能,还有许多第三方模块的配置也在这里进行。
3. Nginx配置实例
3.1 反向代理
3.1.1 第一个例子
使用 nginx 反向代理,实现通过访问一个自定义的域名来访问到tomcat服务器主页面
- 启动tomcat:在tomcat的bin目录中输入./startup.sh启动
- 去本机的C:\Windows\System32\drivers\etc中找到host文件将ip地址与自定义的域名相匹配
- 此时,就可以用自定义的域名加8080端口访问到tomcat了
- 再更改nginx的配置,使得只用自定义域名即可访问tomcat:在location块中的root下面加一行
proxy-pass http://127.0.0.1:8080; - 再去nginx/sbin中重加载nginx即可
3.1.2 第二个例子
使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中 nginx 监听端口为 9001, 访问 http://linux_ip:9001/edu/ 直接跳转到 127.0.0.1:8081 访问 http://linux_ip:9001/vod/ 直接跳转到 127.0.0.1:8082
- 再准备一个tomcat,进入server.xml中将其端口改为8081,配置文件其他的端口随便改改,与之前不一样即可。
- 分别在两个tomcat的webapps中创建测试文件,8080创建edu文件夹和显示8080的文件,8081创建vod文件夹和显示8081的文件
- 更改nginx的配置文件,加一个server块(可选择注释掉的一个server块来用),配置如图
- 重加载nginx
3.2 负载均衡
常用的分配策略:
-
轮询:每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。 -
weight权重:weight 代表权,重默认为 1,权重越高被分配的客户端越多,指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。如需使用,需这样配置: -
ip_hash:每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。需这样配置: -
fair第三方:按后端服务器的响应时间来分配请求,响应时间短的优先分配。需这样配置:
浏览器地址栏输入地址 http://linux_ip/edu/a.html,体现负载均衡效果,平均到8080 和 8081 端口中
- 保证在8080和8081两个服务器中均有edu文件夹和a.html文件。
- 更改配置文件:
- 在http块中加入:
- 在location块中加入:
- 重加载nginx
默认使用的是轮询策略。
3.3 动静分离
Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种, 一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案; 另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。
通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使 浏览器缓存过期时间,减少与服务器之前的请求和流量。
具体 Expires 定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码 200。
实现目标:通过nginx做静态资源配置,使得可以不通过tomcat就得到静态资源。
- 准备静态资源:在虚拟机根目录中创建data文件夹,其中再创建www和image两个文件夹,前者存静态资源,后者存图片
- 更改配置文件:,加入autoindex on可以使静态资源以列表的形式展现。
4. Nginx配置高可用集群
高可用集群是指在主nginx挂掉之后有从nginx来补上,对客户的体验不产生影响。
此功能需要用到keepalived软件(使用yum -y install keepalived ,默认装在/etc中)。n台nginx对外展示一个虚拟ip。
- 修改keepalived配置文件:
global_defs {
notification_email {
acassen@firewall.loc
failover@firewall.loc
sysadmin@firewall.loc
}
notification_email_from Alexandre.Cassen@firewall.loc
smtp_server 192.168.17.129
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_script chk_http_port {
script "/usr/local/src/nginx_check.sh"
interval 2
weight 2
}
vrrp_instance VI_1 {
state BACKUP
interface ens33
virtual_router_id 51
priority 90
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.17.50
}
}
- 创建脚本文件nginx_check.sh并将其放入到keepalived配置文件设置的路径中:
脚本内容有争议
#!/bin/bash
A=`ps -C nginx –no-header |wc -l`
if [ $A -eq 0 ];then
/usr/local/nginx/sbin/nginx
sleep 2
if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
killall keepalived
fi
fi
其中/usr/local/nginx/sbin/nginx 表示启动脚本的位置,判断nginx是否还存活
- 启动keepalived命令:
systemctl start keepalived.service
5. Nginx原理
5.1 Nginx的机制
nginx其实有两个进程,一个叫master,一个叫worker。
master-workers 的机制的好处:
- 对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销
- 可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作
- 每个 woker 是独立的进程,如果有其中的一个woker 出现问题,其他 woker 独立的,
继续进行争抢,实现请求过程,不会造成服务中断
5.2 worker是如何进行工作的
5.3 设置多少个 woker 合适
Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。
5.4 提问
连接数 worker_connection表示worker支持的最大连接数。
-
发送请求,占用几个worker的连接数? 答案:2个或4个 -
nginx 有一个 master,有四个 woker,每个 woker 支持最大的连接数 1024,支持的最大并发数是多少? 普通的静态访问最大并发数是:worker_connections * worker_processes /2 ,而如果是 HTTP 作 为反向代理来说,最大并发数量应该是worker_connections * worker_processes/4
|