1.什么是负载均衡
负载均衡,英文名称为Load Balance,其含义就是指将负载(工作任务)进行平衡、分摊到多个操作单元上进行运行,例如FTP服务器、Web服务器、企业核心应用服务器和其它主要任务服务器等,从而协同完成工作任务。
负载均衡构建在原有网络结构之上,它提供了一种透明且廉价有效的方法扩展服务器和网络设备的带宽、加强网络数据处理能力、增加吞吐量、提高网络的可用性和灵活性。
2.为什么需要使用负载均衡?
负载均衡的作用在于,通过某种负载分担技术,让所有节点以最小的代价、最好的状态对外提供服务,快速获取重要数据,最大化降低了单个节点过载、甚至crash的概率,解决大量并发访问服务问题,简要概括就是:解决并发压力,提高应用处理性能;提供故障转移,实现高可用;通过添加或减少服务器数量,提供网站伸缩性;安全防护。
3.负载均衡实现的场景? 四层负载均衡
四层负载均衡: 转发 改写数据包 源IP 源端口 目标IP 目标端口 真实的目标IP 目标端口
七层负载均衡: 代理 代为办理
4.七层负载均衡与四层负载均衡区别?
七层负载均衡效率没有四负载均衡高。
四层负载均衡没有七层负载均衡支持的功能多,比如 url匹配 设置头部信息
负载均衡是基于代理实现的一种形式
5.七层负载均衡配置示例?
[root@lb01 conf.d]# cat proxy_web.oldxu.com.conf
upstream web {
server 172.16.1.7:80;
server 172.16.1.8:80;
}
server {
listen 80;
server_name web.oldxu.com;
location / {
proxy_pass http://web;
include proxy_params;
}
}
[root@lb01 conf.d]# cat /etc/nginx/proxy_params
proxy_http_version 1.1;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_connect_timeout 30;
proxy_send_timeout 60;
proxy_read_timeout 60;
proxy_buffering on;
proxy_buffer_size 32k;
proxy_buffers 4 128k;
#后端web配置 (为了区分,将两台web的站点配置的不一样,以便测试效果)
[root@web01 conf.d]# cat web.oldxu.com.conf
server {
listen 80;
server_name web.oldxu.com;
location / {
root /html;
index index.html;
}
}
6.七层负载均衡整合集群架构示例?
blog
zh
7.七层负载均衡调度算法、后端状态?
1.负载均衡如何分配流量?
1.强与弱
2.平均
调度算法 概述
轮询 按时间顺序逐一分配到不同的后端服务器(默认)
机器的配置一致 (web集群 硬件环境 一致)
weight 加权轮询,weight值越大,分配到的访问几率越高
机器硬件不一致的情况下使用 (硬件 pc机)
ip_hash 每个请求按访问IP的hash结果分配,这样来自同一IP的固定访问一个后端服务器
解决问题: 能解决会话保持的问题
带来新的问题: 会造成后端负载不均衡
url_hash 按照访问URL的hash结果来分配请求,是每个URL定向到同一个后端服务器
least_conn 最少链接数,那个机器链接数少 就分发
7.七层负载均衡后端状态?
状态 概述
down 当前的server暂时不参与负载均衡
backup 预留的备份服务器
max_fails 允许请求失败的次数
fail_timeout 经过max_fails失败后, 服务暂停时间
max_conns 限制最大的接收连接数
a max_fails=2 fail_timeout=10s 运维
b max_fails=2 fail_timeout=10s 运维
c backup; 开发 运维
d down; 离职
企业案例:使用nginx负载均衡时,如何将后端请求超时的服务器流量平滑的切换到另一台上。如果后台服务连接超时,Nginx是本身是有机制的,如果出现一个节点down掉的时候,Nginx会更据你具体负载均衡的设置,将请求转移到其他的节点上,但是,如果后台服务连接没有down掉,但是返回错误异常码了如:504、502、500,应该如何处理。
可以在负载均衡添加如下配置proxy_next_upstream http_500 | http_502 | http_503 | http_504 |http_404;意思是,当其中一台返回错误码404,500...等错误时,可以分配到下一台服务器程序继续处理,提高平台访问成功率。
nginx本身是有剔除机制, 指的是 后端的nginx没有正常工作
proxy_next_upstream nginx是正常工作,只不过后端的php或者其他程序出现问题 502
server {
listen 80;
server_name xuliangwei.com;
location / {
proxy_pass http://node;
proxy_next_upstream error timeout http_500 http_502 http_503 http_504;
}
}
8.七层负载均衡实现Redis会话共享? redis
1、粘性session
粘性session是指Ngnix每次都将同一用户的所有请求转发至同一台服务器上,及Nginx的 IP_hash。
2、session复制
即每次session发生变化时,创建或者修改,就广播给集群中的服务器,使所有的服务器上的session相同。
3、session持久化 ( 慢 )
将session存储至数据库中,像操作数据一样操作session。
4、session共享
缓存session至内存数据库中,使用redis ( 内存-->刷到磁盘 ),memcached (内存数据库)。
思路:
--------------------------------------------------------------------------
1.在 172.16.1.8 和 172.16.1.7 安装 phpmyadmin
分别进行测试-->测试登录
#1.安装phpmyadmin(web01和web02上都装)
[root@web01 conf.d]# cd /code
[root@web01 code]# wget https://files.phpmyadmin.net/phpMyAdmin/4.8.4/phpMyAdmin-4.8.4-all-languages.zip
[root@web01 code]# unzip phpMyAdmin-4.8.4-all-languages.zip
#2.配置phpmyadmin连接远程的数据库
[root@web01 code]# cd phpMyAdmin-4.8.4-all-languages/
[root@web01 phpMyAdmin-4.8.4-all-languages]# cp config.sample.inc.php config.inc.php
[root@web01 phpMyAdmin-4.8.4-all-languages]# vim config.inc.php
/* Server parameters */
$cfg['Servers'][$i]['host'] = '172.16.1.51';
--------------------------------------------------------------------------
2.接入负载均衡 ---> 代理至后端2台主机
[root@lb01 conf.d]# cat proxy_php.oldxu.com.conf
upstream php {
server 172.16.1.7;
server 172.16.1.8;
}
server {
listen 80;
server_name php.oldxu.com;
location / {
proxy_pass http://php;
proxy_set_header Host $http_host;
}
}
--------------------------------------------------------------------------
3.发现无法正常登陆
1.解决方法:
在负载均衡上配置 ip_hash 会话保持 ( 造成用户仅访问后端的某一台主机 )
[root@lb01 conf.d]# cat proxy_php.oldxu.com.conf
upstream php {
ip_hash;
server 172.16.1.7;
server 172.16.1.8;
}
server {
listen 80;
server_name php.oldxu.com;
location / {
proxy_pass http://php;
proxy_set_header Host $http_host;
}
}
--------------------------------------------------------------------------
4.既希望能够实现流量的均摊,又希望会话的问题得以保持, 所以引入了redis
1)安装redis
[root@db01 ~]# yum install redis -y
2)配置redis
[root@db01 ~]# sed -i '/^bind/c bind 127.0.0.1 172.16.1.51' /etc/redis.conf
3)启动redis
[root@db01 ~]# systemctl enable redis
[root@db01 ~]# systemctl start redis
4) 改造php, session写本地修改为写入redis中 (所有的web上都需要配置)
前提: 已经安装过了redis的模块---> php71w-pecl-redis
1.修改php存储session至redis中
[root@db01 ~]# vim /etc/php.ini
session.save_handler = redis
session.save_path = "tcp://172.16.1.51:6379?weight=1"
2.修改php-fpm 注释默认存储session的位置
[root@web01 ~]# vim /etc/php-fpm.d/www.conf
;php_value[session.save_handler] = files
;php_value[session.save_path] = /var/lib/php/session
3.将修改后的配置文件,推送至172.16.1.8
[root@web01 ~]# scp /etc/php.ini root@172.16.1.8:/etc/
[root@web01 ~]# scp /etc/php-fpm.d/www.conf root@172.16.1.8:/etc/php-fpm.d/www.conf
4.重启172.16.1.7 172.16.1.8两台服务器的php-fpm
[root@web02 conf.d]# systemctl restart php-fpm
5) 测试效果
1.浏览器登录测试 (ok)
2.查看redis的sessionID和 浏览器cookie中提交的sessionID是否一致
[root@db01 ~]# redis-cli
127.0.0.1:6379> keys *
1) "PHPREDIS_SESSION:38ecc8696c70a7252d943e7cb9b20f70"
9.SLB负载均衡 + ECS 云主机 ( 120 块钱 --> 按量付费 )
ECS 云主机 ===> 服务器 ( Linux 操作系统 安装 Nginx PHP )
SLB 产品 ===> 开源技术 ( Tengine LVS ) 手动配置负载均衡没什么区别
1) 购买云主机 ( 按量 ---> 释放 )
2) 配置云主机环境 Nginx +PHP
2) 购买SLB负载均衡 ( 按量 ---> 释放 )
3) 集成 SLB+ECS
4) DNS解析