负载均衡添加配置
upstream mmyServer {
server ip:8083;#第一个应用
server ip:8084;#第二个应用
}
server {
listen 80;
server_name 服务器ip;
#charset koi8-r;
#access_log logs/host.access.log main;
location / {
proxy_pass http://mmyServer;
root html;
index index.html index.htm;
}
#user nobody;
worker_processes 1;
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';
#access_log logs/access.log main;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
#负载均衡配置
upstream mmyServer {
server ip:8083;#第一个应用
server ip:8084;#第二个应用
}
server {
listen 80;
server_name 服务器ip;
#charset koi8-r;
#access_log logs/host.access.log main;
location / {
proxy_pass http://mmyServer;
root html;
index index.html index.htm;
}
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html
#
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
# proxy the PHP scripts to Apache listening on 127.0.0.1:80
#
#location ~ \.php$ {
# proxy_pass http://127.0.0.1;
#}
# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
#location ~ \.php$ {
# root html;
# fastcgi_pass 127.0.0.1:9000;
# fastcgi_index index.php;
# fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name;
# include fastcgi_params;
#}
# deny access to .htaccess files, if Apache's document root
# concurs with nginx's one
#
#location ~ /\.ht {
# deny all;
#}
}
# another virtual host using mix of IP-, name-, and port-based configuration
#
server {
listen 9001;
server_name 服务器ip;
location ~ /app1/ {
proxy_pass http://localhost:8081;
}
location ~ /app2/ {
proxy_pass http://localhost:8082;
}
}
# HTTPS server
#
#server {
# listen 443 ssl;
# server_name localhost;
# ssl_certificate cert.pem;
# ssl_certificate_key cert.key;
# ssl_session_cache shared:SSL:1m;
# ssl_session_timeout 5m;
# ssl_ciphers HIGH:!aNULL:!MD5;
# ssl_prefer_server_ciphers on;
# location / {
# root html;
# index index.html index.htm;
# }
#}
}
效果说明:首先保证第一个应用、第二个应用服务"完全"一样的,即两个tomcat应用除了端口(或ip)不一样外。里面部署的服务访问路径是一样的,比如两个应用都是通过这个:http://ip:端口/app/index.html 访问应用的首页; 那么通过负载均衡配置后, 浏览器地址只要输入:http://nigix服务器ip:端口//app/index.html回车,那么就会去轮询访问第一个应用、第二个应用,即,可能先打开的是第一个应用的/index.html,然后刷新打开的是第二个应用的/index.html,然后再刷新又打开的是第一个应用的/index.html;
这样就达到了,将http://nigix服务器ip:端口//app/index.html请求,平均分配到第一个应用、第二个应用
nginx策略:
1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
2、weight
weight 代表权,重默认为 1,权重越高被分配的客户端越多 。
upstream mmyServer111{
server 应用1 weight=2;
server 应用2 weight=10;
}
3、ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。 某客户端第一次去访问,如果打开的是应用1那么这个客户端以后打开的都是应用1,如果打开的是应用2那么这个客户端以后打开的都是应用2
upstream mmyServer222{
ip_hash;
server 应用1;
server 应用2;
}
4、fair
按后端服务器的响应时间来分配请求,响应时间短的优先分配
upstream mmyServer333{
server 应用1;
server 应用2;
fair;
}
|