文章目录
1.Nginx基本概念
1.1Nginx是什么,做什么事情
Nginx (engine x) 是一个高性能的HTTP和反向代理web服务器,同时也提供了IMAP/POP3/SMTP服务。Nginx是由伊戈尔·赛索耶夫为俄罗斯访问量第二的Rambler.ru站点(俄文:Рамблер)开发的,第一个公开版本0.1.0发布于2004年10月4日
Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,在BSD-like 协议下发行。其特点是占有内存少,并发能力强,事实上nginx的并发能力在同类型的网页服务器中表现较好。
Nginx可以作为静态页面的web服务器,同时还支撑CGI协议的动态语言,比如:perl、php等。但是不支持java,Java程序只能通过与tomcat配合完成,Nginx专为性能优化而开发,性能是其中最重要的考量,实现上非常注重效率,能经受高负载的考验,有报告表明能支持5万个并发连接数。
1.2反-向-代-理
1.2.1正-向-代-理
Nginx不仅可以做反-向-代-理,实现负载均衡,还能用作正-向-代-理进行上网等功能。
如果把局域网外的Internet想象成一个巨大的资源库,则局域网中的客户端要访问Internet,则需要通过代理服务器来访问,这种代-理服务器就称为正-向-代-理。
即:在我们的客户端配置代-理-服务器,通过代-理-服务器进行互联网的访问
1.2.1反-向-代-理
反-向-代-理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反-向-代-理服务器,由反-向-代-理服务器去选择目标服务器获取数据后,再返回给客户端,此时反-向-代-理服务器和目标服务器对外就是一个服务器,暴露的代理服务器地址,隐藏里真是的服务器IP地址
1.3负载均衡
15个请求,通过反向代理服务器,把请求平均分配到集群中的服务器去处理。
1.4动静分离
为加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度,降低原来单个服务器的压力。
Nginx动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯把动态页面和静态页面物理分离。严格意义上来说应该是动态请求跟静态请求分开,可以理解成使用Nginx处理静态页面,Tomcat处理动态页面。动静分离从目前实现角度大致分成两种:
- 纯粹把静态文件独立成单独的域名,放在独立的服务器上,也就是目前主流推崇的方案。
- 动态跟静态混合在一起发布,通过Nginx来分开。
通过location指定不同的后缀名实现不同的请求转发,通过expire参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体Expires定义:是给一个资源设定一个过期时间,即无需去服务器端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法适合不经常变动的资源(如果经常更新不建议用Expires来缓存)。
例如:设置3d,标识这个3天之内访问这个URL,发送一个请求对比服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态200
2.Nginx安装、常用命令和配置文件
2.1在Linux里安装
- 远程连接工具连接服务器
- 下载tar.gz软件
- 在安装之前,需要先安装一些相关的依赖
pcre
openssl
zlib
yum -y install make zlib zlib-devel gcc-c++ libtoll openssl-devel
- 安装pcre,把pcre包放到服务器
- 解压
- 进入解压目录,执行./configure
- 使用make && make install
- 安装之后使用pcre-config --version查看版本
- 安装nginx
- 放入Linux中
- 解压
- 进入解压目录
- 执行./configure
- 使用make && make install
- cd /usr/local会有一个nginx文件夹
- 添加防火墙端口
2.2常用命令
使用命令的前提条件要进入nginx的目录里:cd /usr/local/nginx/sbin
- 查看nginx版本号·
./nginx -v
- 启动nginx
./nginx
- 关闭nginx
./nginx -s stop
- 重新加载nginx
./nginx -s reload
2.3配置文件
配置文件位置/usr/local/nginx/conf/里的nginx.conf
有三部分组成:
全局块
从配置文件开始到events块之间的内容,主要会设置一些影响nginx服务器整体运行的配置指令,主要包括配置运行Nginx服务器的用户(组)允许生成worker process数,进程PID存放路径、日志存放路径和类型以及配置文件的引入等
worker_provesses 1; #Nginx服务器并发处理服务器的关键配置,worker_provesser值越大,可以支持的并发数量也越多,但会受到硬件、软件等设备的制约
events块
events块设计的指令主要影响Nginx服务器与用户的网络连接(常用的设置包括是否开启对多work process下的网络连接进行序列化,是否同时接收多个网络连接,选取那些事件驱动模型来处理连接请求,每个work process可以同时支持的最大连接数量等)
work_connections 1024; #支持最大连接数,这个对Nginx的性能影响较大,在实际应用中灵活配置
http块
这个模块是Nginx服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。
注意:http块也可以包括http全局块和server块
- http块
http全局块配置的指令包括文件引入、MIME-TYPE定义、日志自定义、连接超时时间、单链接请求上限等 - server块
这块和虚拟主机有密切关系,虚拟机从用户角度看和一台独立的硬件主机是完全一样的,该技术的生产是为了节省互联网服务器硬件成本。
每个http块可以包括多个server块,而每个server块就相当于一个虚拟主机
而每个server块也分为全局server块,以及可以同时包含多个location块
- 全局server块
最常见的配置是本虚拟主机的监听配置和本虚拟主机的名称和IP - location块
一个server块可以配置多个location块
这个块主要作用时基于Nginx服务器接收的请求字符串(例如server_name/uri-string),对虚拟主机名称(也可以是IP别名)之外的字符串(例如:前面的/uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块也在这里进行。
3.nginx配置反向代理
3.1反向代理示例1
3.1.1实现效果
打开浏览器,在浏览器地址栏输入地址,跳转到Linux系统Tomcat主页面中。
3.1.2具体实现
- 在Linux中安装Tomcat,使用默认8080端口
- 在Nginx进行请求转发配置(反向代理配置)
cd /usr/local/nginx/conf目录下
vim nginx.cnf
http{
server{
listen:80; #默认监听80端口
server_name 192.168.160.235; #改成IP地址
#charset koi8-r;
#access_log logs/host.access.log main;
location /{#表示是路径中包含斜杠,当访问时会通过location给转发到一个路径
root html;
proxy_pass http://192.168.160.220:8080;#转发到这个地址
index index.html index.htm;
}
}
}
反向代理示例2
3.2.1实现效果
使用nginx反向代理,根据访问的路径跳转到不同端口的服务器中
3.2.2具体实现
- 安装两个Tomcat,一个8080,一个8081
- 创建测试页面
- 修改配置文件
http{
server{
listen 9001;
server_name 192.168.160.235;
location ~ /ede/ {# ~表示使用正则表达式
proxy_pass http://192.168.160.220:8080;
}
location ~ /vod/ {
proxy_pass http://192.168.160.220:8081;
}
}
}
- 开放需要的端口号
localtion指令说明
该指令用户匹配URL
语法:
location [= | ~ | ~* | ^~] url {
}
- =:用不不含正则表达式的url前,要求请求字符串与URI严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求
- ~:用于表示URI包含正则表达式,并且区分大小写
- ~*:用户表示URI包含正则表达式,并且不区分大小写
- ^~:用于不含正则表达式的URI前,要求Nginx服务器找到标识URI和请求字符串匹配最高的location后,立即使用此location处理请求,而不再使用location块中的正则URI和请求字符串做匹配
4.nginx配置负载均衡
实现效果
浏览器地址栏输入地址,实现负载均衡的效果,平均分担到不同Tomcat
具体实现
- 准备2台Tomcat
- 分别准备页面
- 在nginx的配置文件中进行负载均衡的配置
http{
upstream myserver{# 自定义负载均衡的名字
ip_hash;
server 192.168.160.220:8080;
server 192.168.160.220:8081;
}
server{
location /{
...
proxy_pass http://myserver; #上面自定义的名字
proxy_connect_timeout 10; #
}
}
}
负载均衡即是将负载分摊到不同的服务器单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验
Nginx提供了几种分配策略:
- 轮询(默认)
每个请求按照时间顺序逐一分配到不同的后端服务器,如果后端服务器down调,自动剔除 - weight
weight代表权重,默认为1,权重越高被分配的客户越多
指定轮询几率,weight和访问率成正比,用于后端服务器性能不均的情况 - ip_hash
每个请求按照访问ip的hash结果分配,这样每个方可固定访问一个后端服务器,可以解决session的问题,在upstream里添加
upstream server_pool{
ip_hash;
server 192.168.160.220;
server 192.168.160.221;
}
- fair(第三方)
按照后端服务器的响应时间来分配请求,响应时间短的优先分配
upstream server_pool{
server 192.168.160.220;
server 192.168.160.221;
fair;
}
5.nginx配置动静分离
实现效果
具体实现
- 在Linux中准备静态资源,用于进行访问
- 在nginx的配置文件中进行负载均衡的配置
http{
server{
listen 80;
server_name 192.168.160.235;
}
location /www/ {
root /data/;
index index.html index.htm;
}
location /image/ {
root /data/;
autoindex on; #列出当前文件夹里的内容
}
}
6.nginx配置高可用集群
安装keepalived
修改keepalived配置文件
/etc/keepalived.cnf
主配置文件说明
global_defs{ #全局定义
router_id LVS_DEVEL #唯一值,/etc/hosts里查看或添加
}
vrrp_script chk_http_port{#名字自定义,这是检测脚本
script "/usr/local/src/nginx_check.sh" #检测脚本位置
interval 2 #检测脚本执行时间间隔
weight 2
}
vrrp_instance VI_1{#虚拟ip配置,配置实例
state MASTER #状态
interface et0 #网卡(改成自己通信端口,用ifconfig查看)
virtual_router_id 51 #虚拟路由id,一个集群用同一个id
priority 100 #优先级 100高
advert_int 5 #每5秒检测一次,发主播
#校验方式,使用密码,密码为1111
autentication{
auth_type PASS
auth_pass 1111
}
#VRRP H虚拟地址,VIP地址
virtual_ipaddress{
192.168.160.234
}
}
备配置文件说明
global_defs{ #全局定义
router_id LVS_DEVEL #唯一值
}
vrrp_script chk_http_port{#名字自定义,这是检测脚本
script "/usr/local/src/nginx_check.sh" #检测脚本位置
interval 2 #检测脚本执行时间间隔
weight 2
}
vrrp_instance VI_1{#虚拟ip配置,配置实例
state BACKUP #状态
interface et0 #网卡(改成自己通信端口,用ifconfig查看)
virtual_router_id 51 #虚拟路由id,一个集群用同一个id
priority 90 #优先级 低于主
advert_int 5
autentication{
auth_type PASS
auth_pass 1111
}
#VRRP H虚拟地址,VIP地址
virtual_ipaddress{
192.168.160.234
}
}
7.nginx执行原理
一个Master多个worker,worker是抢占式从Master争抢请求
好处:
每个worker进程来说都是独立的不需要加锁,省掉锁开销,编程以及查找问题时会方便很多。独立进程可以让相互之间不会影响,一个进程退出以后,其他进程还在工作,服务不会中断,master进程会很快启动新的worker。当然,worker进程的异常退出,肯定是程序有bug,异常退出,会导致当前worker上的所有请求失败,不过不会影响到所有请求。
有利于nginx进项热部署操作nginx -s reload
设置多少worker是合适的
Nginx同redis类似都采用IO多路复制机制,每个worker都是独立进程,但每个进程里只有一个主线程,通过异步非阻塞方式来请求,即是成千上万个请求也不在话下。每个worker的线程可以把一个CPU的性能发挥到极致。所以worker数和服务器CPU数相等是最为适宜的。设置少了浪费CPU,设置多了会造成CPU频繁切换上下文带来损耗。
#如何设置worker数量
worker_process 4
#work绑定CPU(4work绑定8CPU中的4个)
worker_cpu_affinity 0001 0010 0100 1000
连接数worker_connection
一个请求占用worker几个连接数?答案:2个或4个(请求、响应、请求后端、后端响应)
nginx有一个master,4个worker。每个worker支持最大连接数1024,那么支持最大并发是多少?
- 支持最大连接数:4*1024
- 支持最大并发:4 * 1024 / 2或4 * 1024 / 4
文文的学习笔记,如有问题留言~