10分钟了解nginx
2024-12-09 11:13:16

nginx以前总是用的时候现查使用方法,能配到线上就行,毕竟以前都是赶时间。

等到后来公司走上正轨了,也没时间去折腾相关内容,因为有运维和后端接手了。

现在时间终于没那么赶了,索性系统性的学习下,理论上,nginx确实也是前端基建要了解的一环。

正文

nginx这东西,好用也不难学,学会了之后,对于前端来说,就可以自己操控服务器进行独立应用部署了。

学一学也好,简单又强大的东西,也是其成为新时代的开发宠儿的原因。

以前只是简单的用过,但是从来没有系统性的整理过,这次干脆花些时间简单整理一下。

配置结构

第一部分 全局块

主要设置一些影响 nginx 服务器整体运行的配置指令。

比如: worker_processes 1;worker_processes 值越大,可以支持的并发处理量就越多。

第二部分 events块

events 块涉及的指令主要影响Nginx服务器与用户的网络连接。

比如: worker_connections 1024; 支持的最大连接数。

第三部分 http块

http 块又包括 http 全局块和 server 块,是服务器配置中最频繁的部分,包括配置代理、缓存、日志定义等绝大多数功能。

  • server块:配置虚拟主机的相关参数。
  • location块:配置请求路由,以及各种页面的处理情况。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
...              #全局块

events { #events块
...
}

http #http块
{
... #http全局块
server #server块
{
... #server全局块
location [PATTERN] #location块
{
...
}
location [PATTERN]
{
...
}
}
server
{
...
}
... #http全局块
}

示例

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
########### 每个指令必须有分号结束。#################
#user administrator administrators; #配置用户或者组,默认为nobody nobody。
#worker_processes 2; #允许生成的进程数,默认为1
#pid /nginx/pid/nginx.pid; #指定nginx进程运行文件存放地址
error_log log/error.log debug; #制定日志路径,级别。这个设置可以放入全局块,http块,server块,级别以此为:debug|info|notice|warn|error|crit|alert|emerg
events {
accept_mutex on; #设置网路连接序列化,防止惊群现象发生,默认为on
multi_accept on; #设置一个进程是否同时接受多个网络连接,默认为off
#use epoll; #事件驱动模型,select|poll|kqueue|epoll|resig|/dev/poll|eventport
worker_connections 1024; #最大连接数,默认为512
}
http {
include mime.types; #文件扩展名与文件类型映射表
default_type application/octet-stream; #默认文件类型,默认为text/plain
#access_log off; #取消服务日志
log_format myFormat '$remote_addr$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式
access_log log/access.log myFormat; #combined为日志格式的默认值
sendfile on; #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块。
sendfile_max_chunk 100k; #每个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。
keepalive_timeout 65; #连接超时时间,默认为75s,可以在http,server,location块。

upstream mysvr {
server 127.0.0.1:7878;
server 192.168.10.121:3333 backup; #热备
}
error_page 404 https://www.baidu.com; #错误页
server {
keepalive_requests 120; #单连接请求上限次数。
listen 4545; #监听端口
server_name 127.0.0.1; #监听地址
location ~*^.+$ { #请求的url过滤,正则匹配,~为区分大小写,~*为不区分大小写。
#root path; #根目录
#index vv.txt; #设置默认页
proxy_pass http://mysvr; #请求转向mysvr 定义的服务器列表
deny 127.0.0.1; #拒绝的ip
allow 172.18.5.54; #允许的ip
}
}
}

nginx特性

正向代理

正向代理,就是代理服务器替客户端去访问目标服务器。

在用户去访问目标服务器的时,nginx所在的服务器通过正向代理,作为中介服务器,将用户的访问指到目标服务器。

正向代理,代理的对象是客户端。

反向代理

反向代理针对的是目标服务器。

反向代理服务器和目标服务器对外而言就是一个服务器,只是暴露的是代理服务器地址,而隐藏了真实服务器的IP地址。

客户端对代理服务器是无感知的,客户端不需要做任何配置,用户只请求反向代理服务器,反向代理服务器选择目标服务器,获取数据后再返回给客户端。

反向代理,代理的对象是服务器。

负载均衡

配合反向代理,将原先请求集中到单个服务器上的情况改为增加服务器的数量,然后将请求分发到各个服务器上,将负载分发到不同的服务器,即负载均衡。

这适合于一些大型应用,通过反向代理+负载均衡,我们可以将单个服务器的压力分散到多个服务器。

在这些被代理的服务器集群中,如果某个服务器上的后台应用挂了,那么这些被代理压力可以被转移到其他服务器,而这个过程中,用户不会有感知,这是目前大多数大型企业web应用面对多用户访问的标准解法之一。

高可用

为了提高系统的可用性和容错能力,可以增加nginx服务器的数量,当主服务器发生故障或宕机,备份服务器可以立即充当主服务器进行不间断工作。

动静分离

为了加快网站的解析速度,可以把静态页面和动态页面由不同的服务器来负责解析,加快解析速度,降低原来单个服务器的压力。

简单的来说,就是静态的页面,代理到专门的静态页面处理

配置实例

反向代理

实战一
实现效果

在浏览器输入 www.abc.com , 从 nginx 服务器跳转到 linux 系统 tomcat 主页面。

具体配置
1
2
3
4
5
6
7
8
9
10
server {
listen 80;
server_name 192.168.4.32; #监听地址

location / {
root html; #/html目录
proxy_pass http://127.0.0.1:8080; #请求转向
index index.html index.htm; #设置默认页
}
}
实战二
实现效果

根据在浏览器输入的路径不同,跳转到不同端口的服务中

具体配置
1
2
3
4
5
6
7
8
9
10
11
12
server {
listen 9000;
server_name 192.168.4.32; #监听地址

location ~ /example1/ {
proxy_pass http://127.0.0.1:5000;
}

location ~ /example2/ {
proxy_pass http://127.0.0.1:8080;
}
}

location 指令说明:

  • ~ : 表���uri包含正则表达式,且区分大小写。
  • ~* : 表示uri包含正则表达式,且不区分大小写。
  • = : 表示uri不含正则表达式,要求严格匹配。

负载均衡

实战一
实现效果

在浏览器地址栏输入 http://192.168.4.32/example/a.html ,平均到 5000 和 8080 端口中,实现负载均衡效果。

具体配置
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
upstream myserver {   
server 192.167.4.32:5000;
server 192.168.4.32:8080;
}


server {
listen 80; #监听端口
server_name 192.168.4.32; #监听地址

location / {
root html; #html目录
index index.html index.htm; #设置默认页
proxy_pass http://myserver; #请求转向 myserver 定义的服务器列表
}
}

nginx 分配服务器策略

  • 轮询(默认)

    按请求的时间顺序依次逐一分配,如果服务器down掉,能自动剔除。

  • 权重
    weight 越高,被分配的客户端越多,默认为 1。比如:

    1
    2
    3
    4
    upstream myserver {   
    server 192.167.4.32:5000 weight=10;
    server 192.168.4.32:8080 weight=5;
    }
  • ip
    按请求 ip 的 hash 值分配,每个访客固定访问一个后端服务器。比如:

    1
    2
    3
    4
    5
    upstream myserver { 
    ip_hash;
    server 192.167.4.32:5000;
    server 192.168.4.32:8080;
    }
  • fair

    按后端服务器的响应时间来分配,响应时间短的优先分配到请求。比如:

    1
    2
    3
    4
    5
    upstream myserver { 
    fair;
    server 192.167.4.32:5000;
    server 192.168.4.32:8080;
    }

结语

nginx是运维人员常用的工具,严格意义上不是前端负责的区域。

但是随着最近面试难度的不断提升,再加上有时候人手紧缺,需要前端部署应用的时候,也许我们需要掌握这些技能,所以,有备无患,我梳理一下以前不成体系的知识框架。

不过,nginx这东西么,其实更多的都是想起来再用,个人感觉有点像前端开发中的UI工具库,平时很少有人会记着怎么用,一直都是到了使用的时候现场翻书。

所以,我后续可能不会对nginx太过深入吧。

参考

写给前端同学的Nginx配置指南

从原理到实战,彻底搞懂Nginx

从原理到实战,彻底搞懂Nginx(高级篇)