使用Nginx+KeepAlived构建高可用的负载均衡系统
利用Nginx和KeepAlived做7层的负载均衡,并能实现HA,是硬件负载均衡F5的一个替代方案
另外,还可以使用LVS+KeepAlived做4层的转发,实现负载均衡
对于简单的7层转发,我们使用Nginx来处理基本也就够用了
Nginx和KeepAlived的安装就不说了,只说明一下大概的环境和配置
环境:
2台Server,分别有2个网卡,eth0连接内网,IP地址为10.x.x.x/31
eth1连接公网,但没有为其分配静态的公网IP,通过KeepAlived动态绑定公网VIP为x.x.x.x
DNS解析域名到VIP上
配置:
vi /etc/keepalived/keepalived.conf
global_defs {
notification_email {
xxx@sohu.com
}
notification_email_from xxxx@sohu.com
smtp_server 192.168.x.x
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_script check_nginx {
script "/opt/scripts/keepalived/check_nginx.sh"
interval 1
}
vrrp_instance TanChuang_1 {
state BACKUP
interface eth0
virtual_router_id 77
priority 80
advert_int 1
smtp_alert
authentication {
auth_type PASS
auth_pass xxxx
}
track_script {
check_nginx
}
virtual_ipaddress {
x.x.x.x/24 dev eth1
}
virtual_routes {
via x.x.x.x dev eth1
}
notify /opt/scripts/keepalived/send_msg.sh
}
几个说明的地方:
1. state BACKUP只是初始的状态,最后2个Server谁能成为Master是由priority决定的
2. interface eth0是KeepAlived之间发送心跳包的网卡,该设备必须得有固定的IP地址,否则2个Server之间无法通信
由于我们的环境中,eth1是没有固定ip的,所以此处只能设置为eth0,否则会报错:
cant do IP_ADD_MEMBERSHIP errno=No such device
3. virtual_router_id为VRID标识,2个Server必须一致
4. track_script自定义测试服务状态的脚本,默认情况下只有Server宕了或者KeepAlived宕了,才会发生IP漂移
我们自定义一个脚本,检测nginx进程是否存活,如果没有了,则kill掉KeepAlived,使状态强制发生转换
5. virtual_routes设置状态切换时,增加和删除的路由。由于eth1上没有固定公网IP,所以,必须在状态切换时,动态增加到公网的默认路由
6. notify为发生切换时的发报警短信的脚本,可自动向脚本传递3个参数,$1(GROUP—INSTANCE),$2(group或instance名称),$3(MASTER—BACKUP—FAULT)
在我们的配置中,只使用了一个公网ip,用它来作为VIP,同时做DNS解析,对外提供服务
Nginx+KeepAlived实现高可用性,实际上可以有以下几种模式:
1. 2台Server做了双机热备,正常情况下,只有一台Server对外提供服务,当其中一台Server有问题时,另外一台自动接管服务。我们上面的配置就是这种模式
2. 2台Server互为主备,配置2个Instance,设置2个VIP,做DNS轮询。正常情况下,2台Server都可以对外提供服务,当其中一台Server有问题时,则另外一台会处理所有的请求。这种模式,在并发量很高时,其中一台挂了,所有请求都转发到另外一台上,很有可能造成另外的Server也崩溃
3. 3台Server,2台对外提供服务,同时分别和第3个Server实现备份,这样,当一台Server出现问题时,还能保证有2台Server对外提供服务,增加了系统的稳定性
想问一下,"由于我们的环境中,eth1是没有固定ip的“
这里在ifcfg-eth1里面是如何配置的?