前言
在業務量達到一定量的時候,往往單機的服務是會出現瓶頸的。此時最常見的方式就是通過負載均衡來進行橫向擴展。其中我們最常用的軟件就是 Nginx。通過其反向代理的能力能夠輕松實現負載均衡,當有服務出現異常,也能夠自動剔除。但是負載均衡服務自身也可能出現故障,因此需要引入其他的軟件來實現負載均衡服務的高可用。本文就介紹了一種基于 LVS+Keepalived 的方式,來實現高可用 Web 集群。
LVS 與 Keepalived
LVS 是一種預裝在 Linux 系統中,基于四層、具有強大性能的反向代理服務器。ipvsadm 是 LVS 的命令行管理工具。
LVS 特點是:
首先它是基于 4 層的網絡協議的,抗負載能力強,對于服務器的硬件要求除了網卡外,其他沒有太多要求;
配置性比較低,這是一個缺點也是一個優點,因為沒有可太多配置的東西,大大減少了人為出錯的幾率;
應用范圍比較廣,不僅僅對 web 服務做負載均衡,還可以對其他應用(mysql)做負載均衡;
LVS 架構中存在一個虛擬 IP 的概念,需要向 IDC 多申請一個 IP 來做虛擬 IP。
Keepalived 是一個基于 VRRP 協議來實現的服務高可用方案,可以利用其來避免 IP 單點故障,一般與其它負載均衡技術(如 LVS 、HAProxy 、Nginx)一起工作來達到集群的高可用。Keepalived 是 LVS 的擴展項目, 因此它們之間具備良好的兼容性,可直接通過 Keepalived 的配置文件來配置 LVS。
LVS 的工作原理可見參考文獻
關于 LVS 和 Keepalived 詳細的結構和原理,以及 LVS 和我們常用的 LB 軟件 Nginx 的異同,可以閱讀末尾提供的參考文獻。接下來將介紹如何部署一個高可用的負載均衡集群。
相關術語
LB (Load Balancer 負載均衡)
HA (High Available 高可用)
Failover (失敗切換)
Cluster (集群)
LVS (Linux Virtual Server Linux 虛擬服務器)
DS (Director Server),指的是前端負載均衡器節點
RS (Real Server),后端真實的工作服務器
VIP (Virtual IP),虛擬的 IP 地址,向外部直接面向用戶請求,作為用戶請求的目標的 IP 地址
DIP (Director IP),主要用于和內部主機通訊的 IP 地址
RIP (Real Server IP),后端服務器的 IP 地址
CIP (Client IP),訪問客戶端的 IP 地址
測試環境
軟件環境:CentOS7、Keepalived1.3.5、ipvsadm1.27
DS1(MASTER):172.17.13.120
DS1(BACKUP):172.17.13.123
RS1:172.17.13.142:80 Nginx
RS1:172.17.13.173:80 Nginx
VIP:172.17.13.252
| +----------------+-----------------+ | | 172.17.13.120|---- VIP:172.17.13.252 ----|172.17.13.123 +-------+--------+ +--------+-------+ | DS1 | | DS2 | | LVS+Keepalived | | LVS+Keepalived | +-------+--------+ +--------+-------+ | | +----------------+-----------------+ | +------------+ | +------------+ | RS1 |172.17.13.142 | 172.17.13.173| RS2 | | Web Server +--------------+---------------+ Web Server | +------------+ +------------+
集群的架構圖如上圖所示。DS1、DS2 為兩個 LB 節點,RS1、RS2 為兩個真實的服務節點,通過一個虛擬的 IP 地址對外提供服務。
最終我們要達到的目標為:
Client 通過 VIP 訪問服務能夠將請求根據配置的規則進行分發(LB)
當 MATSER 的 LB 節點故障時,自動切換到 BACKUP 的 LB 節點上,保證服務正常訪問;MASTER 恢復后,再次作為主 LB 負載節點
當某個 RS 節點故障時,自動剔除該節點;恢復后,再次加入集群
詳細配置流程
安裝相關軟件
[root@localhost ~]# yum install ipvsadm keepalived -y
配置 Keepalived
DS1(MASTER) 節點
[root@localhost ~]# vi /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs { router_id LVS_DEVEL } vrrp_instance VI_1 { state MASTER # 兩個 DS,一個為 MASTER 一個為 BACKUP interface enp1s0 # 當前 IP 對應的網絡接口,通過 ifconfig 查詢 virtual_router_id 62 # 虛擬路由 ID(0-255),在一個 VRRP 實例中主備服務器 ID 必須一樣 priority 200 # 優先級值設定:MASTER 要比 BACKUP 的值大 advert_int 1 # 通告時間間隔:單位秒,主備要一致 authentication { # 認證機制,主從節點保持一致即可 auth_type PASS auth_pass 1111 } virtual_ipaddress { 172.17.13.252 # VIP,可配置多個 } } # LB 配置 virtual_server 172.17.13.252 80 { delay_loop 3 # 設置健康狀態檢查時間 lb_algo rr # 調度算法,這里用了 rr 輪詢算法 lb_kind DR # 這里測試用了 Direct Route 模式 persistence_timeout 50 # 持久連接超時時間 protocol TCP real_server 172.17.13.173 80 { weight 1 TCP_CHECK { connect_timeout 10 retry 3 # 舊版本為 nb_get_retry delay_before_retry 3 connect_port 80 } } real_server 172.17.13.142 80 { weight 1 TCP_CHECK { connect_timeout 10 retry 3 delay_before_retry 3 connect_port 80 } } }
DS2(BACKUP) 節點
復制之前的配置文件,修改vrrp_instance VI_1中的state為BACKUP。
配置完成后,分別重啟 Keepalived 服務。
[root@localhost ~]# systemctl restart keepalived
配置 RS
RS 配置主要分兩部分,一部分是 web 服務,另一部分是網絡轉發配置。
web 服務部署不多展開了,根據實際情況來,可以是 Tomcat 也可以是 Nginx,只要能通過 ip:port 能訪問到即可。
在網絡轉發配置上,LVS 支持多種通信模型(NAT、DR、TUN),本文采用 DR 模型來進行通信,大致的流程如下圖所示。請求數據包從到達 LB 后,LVS 會將這個數據包的 MAC 地址改成輪詢到的 RS 的 MAC 地址,并丟給交換機;RS 收到后進行處理并從網卡的 lo 端口發送出去,響應報文到達交換機后直接轉發給 Client。
因此,我們需要在 RS 的網卡上配置 lo 為 VIP。配置腳本如下
#!/bin/bash SNS_VIP=172.17.13.252 case "$1" in start) ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP /sbin/route add -host $SNS_VIP dev lo:0 echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce sysctl -p >/dev/null 2>&1 echo "RealServer Start OK" ;; stop) ifconfig lo:0 down route del $SNS_VIP >/dev/null 2>&1 echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce echo "RealServer Stoped" ;; *) echo "Usage: $0 {start|stop}" exit 1 esac exit 0
本地創建完后,并執行。
[root@localhost ~]# chmod a+x lvs-web.sh [root@localhost ~]# ./lvs-web.sh start
配置完成后,通過 VIP 就可以訪問到 RS 上的服務了。
HA 測試
配置完雙機熱備后,我們就可以測試下,節點發生故障后以及 LB 切換失敗后,能否保證服務的 HA。
在 LB 的主節點上輸入ip a,可以看到 VIP 目前已經正確配置在網卡上。
輸入watch ipvsadm -Ln --stats可實時看到負載均衡的結果,正常。
接下面我們試著訪問一下 VIP。
[root@localhost ~]# while true ; do curl 172.17.13.252; sleep 1;done
看到服務可正常輪詢。
此時手動停止一個 RS,再次訪問 VIP,LVS 會自動剔除無法訪問的服務,重啟后,服務會被自動添加。
如果此時,手動停止 MASTER 上的 Keepalived,模擬 LB MASTER 節點掛了,VIP 會自動飄到 BACKUP LB 上。
此時,如果重啟 MASTER 后,VIP 又會飄回去。MASTER 的優先級高于 BACKUP,從而實現 HA。
總結
本文介紹了使用 LVS+Keepalived 來實現高可用負載均衡,這能使得我們的服務能夠更加的穩定。Keepalived 默認是運行在 LVS 之上的,有較好的兼容性,當然我們也可以使用戶 Nginx 作為 LB 的軟件,可根據業務和兩者的異同進行選擇。
審核編輯:黃飛
-
Web
+關注
關注
2文章
1269瀏覽量
69732 -
服務器
+關注
關注
12文章
9308瀏覽量
86071 -
網絡協議
+關注
關注
3文章
269瀏覽量
21636 -
數據包
+關注
關注
0文章
267瀏覽量
24504 -
負載均衡
+關注
關注
0文章
113瀏覽量
12391
原文標題:你必須會的LVS高可用負載均衡方案
文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
解析keepalived+nginx實現高可用方案技術
![解析<b class='flag-5'>keepalived</b>+nginx<b class='flag-5'>實現</b><b class='flag-5'>高</b><b class='flag-5'>可用</b>方案技術](https://file.elecfans.com/web1/M00/C9/5E/pIYBAF90Nv2AZFBKAABrJSWaPe4389.png)
雙機熱備與負載均衡的設計與實現
云環境中基于LVS集群的負載均衡算法
![云環境中基于<b class='flag-5'>LVS</b>集群的<b class='flag-5'>負載</b><b class='flag-5'>均衡</b>算法](https://file.elecfans.com/web2/M00/49/66/poYBAGKhwK2AThaTAAAU5m2PJjU541.jpg)
超詳細!使用 LVS 實現負載均衡原理及安裝配置詳解
keepalived及LVS概述,KeepAlived工作原理
![<b class='flag-5'>keepalived</b>及<b class='flag-5'>LVS</b>概述,<b class='flag-5'>KeepAlived</b>工作原理](https://file.elecfans.com/web1/M00/55/86/o4YBAFswhwuALn81AAAXyilrv7k421.jpg)
評論