lvs 实现负载均衡
linux virtual server
1,配置yum源
因为默认yum源仅仅是提供了一些默认文件,因此需要我们将一些不是默认提供的软件包拿出来
[root@server1 haproxy]# cat /etc/yum.repos.d/yum.repo
[yum]
name = yum
baseurl=http://172.25.12.250/rhel6.5
gpgcheck=0[HighAvailability] #高可用模块
name = HighAvailability
baseurl=http://172.25.12.250/rhel6.5/HighAvailability
gpgcheck=0[LoadBalancer] #负载均衡模块
name = LoadBalancer
baseurl=http://172.25.12.250/rhel6.5/LoadBalancer
gpgcheck=0[ResilientStorage]
name = ResilientStorage
baseurl=http://172.25.12.250/rhel6.5/ResilientStorage
gpgcheck=0[ScalableFileSystem]
name = ScalableFileSystem
baseurl=http://172.25.12.250/rhel6.5/ScalableFileSystem
gpgcheck=0#######################################################
HighAvailability HighAvailability 56
LoadBalancer LoadBalancer 4
ResilientStorage ResilientStorage 62
ScalableFileSystem ScalableFileSystem 7
yum yum 3,690
repolist: 3,819
#######################################################
可以看到yum下的软件多了几个模块
2.安装ipvsadm
yum install -y ipvsadm
ipvsadm -A -t 172.25.12.100:80 -s rr
ipvsadm -a -t 172.25.12.100:80 -r 172.25.12.2:80 -g
ipvsadm -a -t 172.25.12.100:80 -r 172.25.12.3:80 -g
ipvsadm -ln #查看策略
/etc/init.d/ipvsadm save
/etc/init.d/ipvsadm stop
/etc/init.d/ipvsadm start
4.添加vip
server1 #服务端中添加ip
ip addr add 172.25.12.100/24 dev eth0
server* #在各个客户机中添加ip
ip addr add 172.25.12.100/24 dev eth0
做vip掩饰,不对外宣布
yum install -y arptables_jf
arptables -A IN -d 172.25.12.100 -j DROP #对通过100进入的数据进行丢弃
arptables -A OUT -s 172.25.12.100 -j mangle --mangle-ip-s 172.25.12.* #将从出去的数据通过172.25.12.*出去
/etc/init.d/arptables_jf save #永久保存设置
测试
curl 172.25.200.100 访问调度器
arp -an | grep 100 查看100的mac地址,会发现访问的是调度器的ip,ip与调度器的mac对应
arp -d 172.25.200.100 清空arp的缓存
arp -a 可以查看arp所有请求信息
ldirectord + lvs
-
安装
yum install -y ldirectord-3.9.5-3.1.x86_64.rpm
rpm -ql ldirectord #查找配置文件
mv /usr/share/doc/ldirectord-3.9.5/ldirectord.cf /etc/ha.d/
#移动到这里的原因是/etc/init.d/ldirectord中配置文件指向为这里
-
修改配置文件
cd /etc/ha.d/
vim ldirectord.cf
24 # Sample for an http virtual service
25 virtual=172.25.12.100:80 #vip指定
26 real=172.25.12.2:80 gate #后端指定
27 real=172.25.12.3:80 gate
28 fallback=127.0.0.1:80 gate #当前面的都挂掉以后调度器充当服务器
29 service=http
30 scheduler=rr
31 #persistent=600
32 #netmask=255.255.255.255
33 protocol=tcp
34 checktype=negotiate
35 checkport=80
36 request="index.html" #后端检查位置
37 #receive="Test Page" #后端检查页面内容
38 #virtualhost=www.x.y.z
ipvsadm -C 清除规则
/etc/init.d/ldirectord start #重新启动ldirectord服务
ipvsadm -ln 查看规则,ldirectord会将规则自动添加上去
并且该服务提供健康检查,如果有一个RS挂掉以后,他会在规则中将它去除,如果全部都挂掉以后,VS将充当服务器,一般这个服务器的页面写该网站正在维护,便于减少流量
keepalived + lvs
keepalived这个服务也提供高可用,但是它可以提供负载均衡,Keepalived的作用是检测服务器的状态,如果有一台web服务器宕机,或工作出现故障,Keepalived将检测到,并将有故障的服务器从系统 中剔除,同时使用其他服务器代替该服务器的工作,当服务器工作正常后Keepalived自动将服务器加入到服务器群中,这些工作全部自动完成,不需要人 工干涉,需要人工做的只是修复故障的服务器。
源码安装
tar zxf keepalived-1.4.0.tar.gz
cd keepalived-1.4.0/vim INSTALL #查看安装文档
yum install -y openssl-devel libnl3-devel ipset-devel iptables-devel libnfnetlink-devel 一些依赖性软件,在文档中可以看到
yum install -y libnfnetlink-devel-1.0.0-1.el6.x86_64.rpm
yum install -y libnl-devel./configure --prefix=/usr/local/keepalived --with-init=SYSV #源码安装三部曲 (1)
make (2)
make install (3)
因为该软件的家目录和电脑的家目录不一致,如果打开会找不到软件位置,所以需要设置软链接
ln -s /usr/local/keepalived/etc/keepalived/ /etc/
ln -s /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
ln -s /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/
ln -s /usr/local/keepalived/sbin/keepalived /sbin/chmod +x /etc/init.d/keepalived
创建备用服务器的时候可以将/etc/init.d/keepalived 直接发给备用服务器,然后创建软链接
如果可以正常启动服务说明安装过程没有问题
-
修改配置文件
cd /etc/keepalived/
vim keepalived.conf #编辑配置文件,修改后的内容如下
! Configuration File for keepalivedglobal_defs {
notification_email {
root@localhost #邮件发送到地址
}
notification_email_from keepalived@localhost
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id LVS_DEVEL
vrrp_skip_check_adv_addr
# vrrp_strict 所用版本2.06 如果不将这个语句注释,启动以后会自动给火墙里面加拒绝所有的策略
vrrp_garp_interval 0
vrrp_gna_interval 0
}vrrp_instance VI_1 {
state MASTER # 将这个机器设置为主服务器,在备用机器里面应该设置为BACKUP
interface eth0
virtual_router_id 12
priority 100 #权重越大越优先,备用机器可以将权重减小,如果性能相同,无所谓
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
172.25.12.100 #vip
}
}virtual_server 172.25.12.100 80 {
delay_loop 3
lb_algo rr
lb_kind DR #DR模型
#persistence_timeout 50
protocol TCPreal_server 172.25.12.2 80 { #RS的配置
weight 1
TCP_CHECK
connect_timeout 3
retry 3
delay_before_retry 3
}
}real_server 172.25.12.3 80 { #RS配置
weight 1
TCP_CHECK
connect_timeout 3
retry 3
delay_before_retry 3
}
}
}
-
测试
echo c > /proc/sysrq-trigger 直接使内核崩溃,可以模拟VS挂掉,重新启动以后恢复
curl 172.25.12.100 如果两个RS的发布页面不同,执行这条命令多次会轮流交换,实现(负载均衡)
可以创建两个RS两个VS来测试
RS中安装httpd
该软件也有健康检查功能,但是如果RS都挂掉以后就全挂了,VS不会去充当RS
如果将主VS挂掉以后,备用的VS将会自动顶替位置 (高可用)
注意:需要在同一个网段
总结:ldirectord是与keepalived之间是冲突的,所以需要关闭ldirectord在进行keepalived 的实验的时候。
idrectord 提供负载均衡,提供健康检查,可以VS充当RS来提供页面
keepalived需要源码编译,提供高可用和负载均衡,健康检查,不能VS充当RS