Haproxy 는 두 말할 것 없이 현존 최고[각주:1]의 오픈소스 소프트웨어 Load Balancing 솔루션이다. 그림에 나오는 구성은 응용 여하에 따라 각종 모바일/웹 서비스의 기본 모델 또는 Hadoop 등 시스템의 하부 솔루션 등에서 Active-Standby 구조의 고가용성 확보 솔루션으로 활용 가능하므로, 본 포스팅을 통해 그 실제적인 부분을 모두 다루어 구현 & 검증/확인해 보고자 한다.


전체적인 구성은 크게 세 부분으로 나뉘는데, 본 구현에서는 앞선 포스팅들("Linux NAT router 설정하기 - Ubuntu 14.4 dom0, xen pv guest 환경", "[Xen 가상화 2] ubuntu pv guest on Ubuntu 14.4 LTS, Xen 4.4.1 - 설치 및 설정 가이드") 에서 다룬 Xen 환경을 확장하여 그대로 써먹고 있으며, nginx 웹서버에서 외부 접속이 가능하도록 설정됨(NAT Router)을 전제로 진행하므로 꼭 참고해 보도록 하자.


1. LB 서버에 Haproxy 설치(LB1: Active, LB2: Stand-by임에 유의)

2. LB 서버에 Keepalived 설치 & VRRP 구동, Failover 확인

3. 내부서버에 웹서버 nginx 설치 & Haproxy 구동 확인 & 테스트

4. (번외)내부서버에서 외부로 나가는 경로를 Keepalived 로 이중화



1. LB 서버에 Haproxy 설치


Ubuntu 에서 Haproxy 를 설치하려면 단순히 apt-get 으로 설치 가능하다. 다만 repo 에 포함된 버전은 1.4.x 버전으로 SSL을 자체 지원하지 않으며, 1.5.x 버전을 설치해야만 SSL 기능을 활용할 수 있다. 소스를 다운로드 받아서 빌드할 수도 있지만 여기서는 ppa:vbernat repo를 배포 받아 설치한다.


* 동일한 과정을 LB1(ubuntu14-pvha1), LB2(ubuntu14-pvha2) 서버에서 각각 수행한다

root@ubuntu14-pvha1:~# apt-add-repository ppa:vbernat/haproxy-1.5

root@ubuntu14-pvha1:~# apt-get update

root@ubuntu14-pvha1:~# apt-get install haproxy

root@ubuntu14-pvha1:~# haproxy -v

HA-Proxy version 1.5.13 2015/06/23

Copyright 2000-2015 Willy Tarreau <willy@haproxy.org>


* haproxy.cfg 파일을 수정한다(LB1, LB2 에서 각각 동일하게 적용)

* 192.168.25.203 은 가상ip(VIP, Virtual IP)이며, 평상시 LB1의 eth0에 binding 되어 있다가 LB1 down시 LB2 eth0가 넘겨 받도록  keepalived 를 통해 설정할 것이다(VRRP by keepalived)

* 서버별 주요 설정 값들은 붉은 글씨로 따로 표시해 둔 점에 유의(주요 설정 수치에 대해서는 haproxy 문서 별도 참조)

root@ubuntu14-pvha1:~# vi /etc/haproxy/haproxy.cfg

global

#log /dev/log local0

#log /dev/log local1 notice

log 127.0.0.1 local2

chroot /var/lib/haproxy

stats socket /run/haproxy/admin.sock mode 660 level admin

stats timeout 30s

user haproxy

group haproxy

daemon


# Default SSL material locations

ca-base /etc/ssl/certs

crt-base /etc/ssl/private


# Default ciphers to use on SSL-enabled listening sockets.

# For more information, see ciphers(1SSL). This list is from:

#  https://hynek.me/articles/hardening-your-web-servers-ssl-ciphers/

ssl-default-bind-ciphers ECDH+AESGCM:DH+AESGCM:ECDH+AES256:DH+AES256:ECDH+AES128:DH+AES:ECDH+3DES:DH+3DES:RSA+AESGCM:RSA+AES:RSA+3DES:!aNULL:!MD5:!DSS

ssl-default-bind-options no-sslv3


defaults

log global

mode http

option httplog

option dontlognull

option http-server-close

option forwardfor except 127.0.0.0/8

option redispatch

retries 3

timeout http-request 20

timeout queue 86400

timeout connect 86400

timeout client 86400

timeout server 86400

timeout http-keep-alive 30

timeout check 20

maxconn 50000


frontend myLB

bind 192.168.25.203:80

default_backend myLB


backend myLB 192.168.25.203:80

mode http

stats enable

stats hide-version

stats uri /stats

stats realm Haproxy\ Statistics

stats auth haproxy:admin

balance roundrobin

option httpchk GET /hc.html

option http-server-close

option forwardfor

server pv1 10.0.10.1:80 check inter 1000 fastinter 500 downinter 5000 rise 3 fall 1

server pv2 10.0.10.2:80 check inter 1000 fastinter 500 downinter 5000 rise 3 fall 1

server pv3 10.0.10.3:80 check inter 1000 fastinter 500 downinter 5000 rise 3 fall 1

server pv4 10.0.10.4:80 check inter 1000 fastinter 500 downinter 5000 rise 3 fall 1


root@ubuntu14-pvha1:~# vi /etc/rsyslog.conf -> 아래 2개 라인을 찾아 uncomment. UDP syslog 를 port 514 로 받아들이기 위한 config 설정

$ModLoad imudp

$UDPServerRun 514


* haproxy log 가 /var/log/haproxy.log 에 쌓이는지 확인

root@ubuntu14-pvha1:~# service rsyslog restart

root@ubuntu14-pvha1:~# service haproxy restart

root@ubuntu14-pvha1:~# tail -f /var/log/haproxy.log


root@ubuntu14-pvha1:~# vi /etc/default/haproxy -> 아래 라인 추가(부팅시 자동실행)

ENABLED=1



2. LB 서버에 Keepalived 설치 & VRRP 구동, Failover 확인


* 서버 외부의 IP 주소를 NIC에 바이딩이 가능하도록 커널 옵션을 수정한다(LB1, LB2 에서 모두 수행)

root@ubuntu14-pvha1:~# vi /etc/sysctl.conf -> 아래 2개 라인을 입력해 준다

# For keepalived - vrrp

net.ipv4.ip_nonlocal_bind=1

root@ubuntu14-pvha1:~# sysctl -p (또는 리부트)

root@ubuntu14-pvha1:~# cat /proc/sys/net/ipv4/ip_nonlocal_bind 

1


* keepalived 를 설치하고 config 를 설정한다(LB1에서 수행. 우선순위는 1~254 값 중 임의로 사용. 101 값에 유의)

* [중요] Master와 Slave의 Instance 명, virtual router id 를 각각 동일하게 해야 하며, Master 우선순위를 더 높게 하는 이유는, Master 가 내려 갔다가 다시 살아날 때 원래대로 다시 Master 역할을 떠맡아 VIP를 가져가게 하려는 의도

* 기본 eth0에 할당된 192.168.25.201 과 함께 VIP인 192.168.25.203 이 바인딩되도록 설정

root@ubuntu14-pvha1:~# apt-get install keepalived 

root@ubuntu14-pvha1:~# vi /etc/keepalived/keepalived.conf

global_defs {

  router_id ubuntu14-pvha1

}

vrrp_script haproxy {

  script "killall -0 haproxy"

  interval 2

  weight 2

}

vrrp_instance VI_1 {

  virtual_router_id 50

  advert_int 1

  priority 101

  state MASTER

  interface eth0

  virtual_ipaddress {

    192.168.25.203 dev eth0

  }

  track_script {

    haproxy

  }

}

* 최소한의 기본 설정으로, event mail 발송, health-check 튜닝 등 추가적인 부분은 상황에 맞게 별도 진행


* keepalived 를 설치하고 config 를 설정한다(LB2에서 수행. 우선순위 100에 유의)

* 동일한 vrrp instance(VI_1) 가 네트워크 내에 존재하면서 자신보다 우선순위가 높으면 반응하지 않게 된다

root@ubuntu14-pvha1:~# apt-get install keepalived 

root@ubuntu14-pvha1:~# vi /etc/keepalived/keepalived.conf

global_defs {

  router_id ubuntu14-pvha2

}

vrrp_script haproxy {

  script "killall -0 haproxy"

  interval 2

  weight 2

}

vrrp_instance VI_1 {

  virtual_router_id 50

  advert_int 1

  priority 100

  state MASTER

  interface eth0

  virtual_ipaddress {

    192.168.25.203 dev eth0

  }

  track_script {

    haproxy

  }

}


* keepalived, haproxy 순으로 재시작하고 설정 확인(LB1 에서 수행)
root@ubuntu14-pvha1:~# service keepalived restart
root@ubuntu14-pvha1:~# service haproxy restart 
root@ubuntu14-pvha1:~# ip addr show -> eth0에 VIP가 추가로 할당 됨을 확인

...

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000

    link/ether 00:16:3e:fa:5b:07 brd ff:ff:ff:ff:ff:ff

    inet 192.168.25.201/24 brd 192.168.25.255 scope global eth0

       valid_lft forever preferred_lft forever

    inet 192.168.25.203/32 scope global eth0

       valid_lft forever preferred_lft forever

    inet6 fe80::216:3eff:fefa:5b07/64 scope link 

       valid_lft forever preferred_lft forever

...


* keepalived, haproxy 순으로 재시작하고 설정 확인(LB2 에서 수행)
root@ubuntu14-pvha1:~# service keepalived restart
root@ubuntu14-pvha1:~# service haproxy restart 
root@ubuntu14-pvha1:~# ip addr show -> 평상시 eth0에는 VIP가 할당되지 않음을 확인

...

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000

    link/ether 00:16:3e:d9:2c:13 brd ff:ff:ff:ff:ff:ff

    inet 192.168.25.202/24 brd 192.168.25.255 scope global eth0

       valid_lft forever preferred_lft forever

    inet6 fe80::216:3eff:fed9:2c13/64 scope link 

       valid_lft forever preferred_lft forever

...


* Keepalived 의 수행 결과로 VIP가 옮겨 지면서 Haproxy 가 Failover 에 의해 잘 작동되는지 점검한다

1. Host(Dom0)에서 별도 터미널을 띄우고 VIP(192.168.25.203) 쪽으로 ping test를 실행해 둔다

2. LB1, LB2에 각각 1개의 터미널을 띄우고 LB1 서버를 셧다운(halt)한다

3. 위에서 띄운 별도 터미널의 ping test 결과를 관찰하면 약 1~2 회 가량 redirect 발생, 1~2회 가량 순단현상 발생, 이후 정상 ping 결과가 나타난다(이러한 순단현상은 ping test에 의해서 0~2회 정도까지 관찰된다)

bryan@bryan-XenPC:~$ ping 192.168.25.203

...

64 bytes from 192.168.25.203: icmp_seq=221 ttl=64 time=0.291 ms

64 bytes from 192.168.25.203: icmp_seq=222 ttl=64 time=0.297 ms

64 bytes from 192.168.25.203: icmp_seq=223 ttl=64 time=0.242 ms

64 bytes from 192.168.25.203: icmp_seq=224 ttl=64 time=0.286 ms

64 bytes from 192.168.25.203: icmp_seq=225 ttl=64 time=0.151 ms

64 bytes from 192.168.25.203: icmp_seq=226 ttl=64 time=0.270 ms

From 192.168.25.203: icmp_seq=227 Redirect Host(New nexthop: 192.168.25.203)

64 bytes from 192.168.25.203: icmp_seq=229 ttl=64 time=0.337 ms

64 bytes from 192.168.25.203: icmp_seq=21 ttl=64 time=0.288 ms

From 192.168.25.203 icmp_seq=18 Destination Host Unreachable

64 bytes from 192.168.25.203: icmp_seq=230 ttl=64 time=0.328 ms

64 bytes from 192.168.25.203: icmp_seq=231 ttl=64 time=0.316 ms

64 bytes from 192.168.25.203: icmp_seq=232 ttl=64 time=0.319 ms

64 bytes from 192.168.25.203: icmp_seq=233 ttl=64 time=0.318 ms

...
* LB2의 터미널에서 ip addr show 를 수행하면 VIP가 LB1 으로부터 옮겨와서 eth0에 바인딩 된 것을 볼 수 있을 것이다


* LB2 서버의 eth0 에 VIP가 바인딩된 것을 볼 수 있다

root@ubuntu14-pvha2:~# ip addr show

...

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000

    link/ether 00:16:3e:d9:2c:13 brd ff:ff:ff:ff:ff:ff

    inet 192.168.25.202/24 brd 192.168.25.255 scope global eth0

       valid_lft forever preferred_lft forever

    inet 192.168.25.203/32 scope global eth0

       valid_lft forever preferred_lft forever

    inet6 fe80::216:3eff:fed9:2c13/64 scope link

       valid_lft forever preferred_lft forever

...


* 다시 LB1 서버를 켜서, 이전 상태인 LB1 eth0로 VIP가 바인딩 됨은 앞선 테스트 과정을 반복해 보면 확인 가능하다. 이 때에도 약간의 순단현상이 발생할 수 있다.



3. 내부서버에 nginx 설치, haproxy failover 구동 확인


* 4개의 vm(ubuntu14-pv1~ubuntu14-pv4)에 각각 nginx 를 설치하고 테스트를 위한 html source 를 수정

root@ubuntu14-pv1:~# apt-get install nginx

root@ubuntu14-pv1:~# nginx -v

nginx version: nginx/1.4.6 (Ubuntu)

root@ubuntu14-pv1:~# vi /usr/share/nginx/html/index.html -> 기본 제공 html을 간단히 수정

<!DOCTYPE html>

<html>

<head>

<title>Welcome to nginx!</title>

<style>

    body {

        width: 35em;

        margin: 0 auto;

        font-family: Tahoma, Verdana, Arial, sans-serif;

    }

</style>

</head>

<body>

<h1>Welcome to nginx!</h1>

<p>If you see this page, the nginx web server is successfully installed and

working. Further configuration is required.</p>


<p>For online documentation and support please refer to

<a href="http://nginx.org/">nginx.org</a>.<br/>

Commercial support is available at

<a href="http://nginx.com/">nginx.com</a>.</p>


<p><em>Thank you for using nginx.</em></p>

<p>Hostname: ubuntu14-pv1</p>

</body>

</html>


* LB로부터의 Health-check request 을 받기 위한 별도의 html 파일 준비

 root@ubuntu14-pv1:/etc/nginx# vi /usr/share/nginx/html/hc.html 

<!DOCTYPE html>

<html>

<head><title>Health Check file</title></head>

<body>

OK?

</body>

</html>


* (특별 부록1) 외부로 ping 은 나가지만 인터넷 주소로 외부 접근이 안되는 경우 DNS 설정을 해 주어야 한다. Ubuntu 12 부터는 /etc/resolve.conf 만 수정할 경우 리부트 후에 Network manager 에 의해 초기화되므로 다음과 같이 DNS server 를 변경해 주어야 한다.

<고정 ip를 사용할 경우: /etc/network/interfaces, NIC별 직접 설정만으로 충분>

iface eth0 inet static

address 10.0.10.1

...

dns-nameservers 8.8.8.8

<고정 ip 여부에 무관하게 항상 우선적으로 적용되게 할 경우>

root@ubuntu14-pv1:~# vi /etc/resolvconf/resolv.conf.d/head

nameserver 210.220.163.82

nameserver 219.250.36.130

nameserver 8.8.8.8

root@ubuntu14-pv1:~# resolvconf -u


* (특별 부록2) nginx 는 haproxy 와 같은 Load balancer 로부터의 접속에 대해 Client(web browser)의 실제 IP를 손쉽게 로깅할 수 있는 방법을 제공한다(cf: Apache의 경우 mod_rpaf 등의 별도 모듈 설치/설정 필요. 로그파일이나 Web 프로그래밍시에 사용하는  서버변수의 경우에도 Apache는 HTTP_X_FORWARDED_FOR 와 같은 별도의 변수를 써야 하지만, nginx는 LB가 없을 때의 기존 방식 그대로 REMOTE_ADDR 변수를 사용할 수 있다). 이 때 haproxy 측에서는

option http-server-close

option forwardfor

와 같이 config 를 미리 설정하여 X-Forwarded-For 헤더를 웹서버로 전달하도록 하고 nginx 측에는 아래와 같이 설정하면 간단히 구현된다. 여기서 10.0.0.1, 10.0.0.2 는 LB1, LB2(즉 Haproxy 서버) 측의 내부 네트워크 쪽 NIC의 IP 주소들이다.


root@ubuntu14-pv1:~# vi /etc/nginx/nginx.conf -> 붉은 글씨의 라인들 추가

http {

         ...

        # server_name_in_redirect off;


        ##

        # Real IP settings

        ##

        set_real_ip_from 10.0.0.1;

        set_real_ip_from 10.0.0.2;

        real_ip_header X-Forwarded-For;

         ...
         access_log /var/log/nginx/access.log;
         error_log /var/log/nginx/error.log;

         server {
                 listen 80;
                 location ~* /hc.html {
                         access_log off;
                 }
         }

         ##
         # Gzip Settings
         ...
}

root@ubuntu14-pv1:~# service nginx restart

* (특별 부록3) 위의 config 하단을 잘 보면, LB로부터의 지속적인 health-check request 들이 다량으로 로그에 쌓이게 된다. 따라서 config 파일 내의 http 블록 안에 server-location 블록을 설정하여, 80 포트로 들어온 /hc.html 페이지 호출 request 는 access_log 에 쌓지 않도록 설정하였음을 알 수 있다(옵션 사항)



* Haproxy 를 통해 들어온 접속의 Client 측 Real IP 를 확인해 보기 위해 log 에 tail 을 걸어서 확인한다. 웹브라우저는 외부 네트워크인 192.168.25.2에서 Chrome 브라우저를 띄우고 http://192.168.25.203 으로 접속을 시도한다.

root@ubuntu14-pv1:~# tail -f /var/log/nginx/access.log

...

192.168.25.2 - - [01/Jul/2015:11:43:03 +0900] "GET / HTTP/1.1" 200 414 "-" "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.2357.130 Safari/537.36"

...



* 이후의 테스트 및 검증은 위의 2에서 수행한 것과 유사한 방식으로 LB1, LB2 를 번갈아서 shutdown 하면서 nginx access.log, 테스트용 브라우저의 결과 화면을 모니터링해 보면 되겠다



* 참고로, 일반적으로 많이 사용하는 Apache Bench 를 사용하는 예를 아래에 기재해 두었다

root@bryan-XenPC:~# apt-get install apache2-utils

root@bryan-XenPC:~# ab -n 50 -c 10 http://192.168.25.203/index.html

This is ApacheBench, Version 2.3 <$Revision: 1528965 $>

Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/

Licensed to The Apache Software Foundation, http://www.apache.org/


Benchmarking 192.168.25.203 (be patient).....done



Server Software:        nginx/1.4.6

Server Hostname:        192.168.25.203

Server Port:            80


Document Path:          /index.html

Document Length:        642 bytes


Concurrency Level:      10

Time taken for tests:   0.013 seconds

Complete requests:      50

Failed requests:        12

   (Connect: 0, Receive: 0, Length: 12, Exceptions: 0)

Total transferred:      44102 bytes

HTML transferred:       32052 bytes

Requests per second:    3861.60 [#/sec] (mean)

Time per request:       2.590 [ms] (mean)

Time per request:       0.259 [ms] (mean, across all concurrent requests)

Transfer rate:          3326.26 [Kbytes/sec] received


Connection Times (ms)

              min  mean[+/-sd] median   max

Connect:        0    0   0.1      0       1

Processing:     1    2   0.5      2       3

Waiting:        1    2   0.5      2       3

Total:          1    2   0.5      2       4


Percentage of the requests served within a certain time (ms)

  50%      2

  66%      2

  75%      3

  80%      3

  90%      3

  95%      3

  98%      4

  99%      4

 100%      4 (longest request)




4. 내부서버에서 외부로 나가는 경로를 Keepalived 로 이중화하여 Failover


* 웹서비스를 위한 VIP(192.168.25.203) failover에 더하여, 내부서버에서 패키지업데이트 등 유지보수 활동을 위한 외부 접속을 위해 내부서버의 gateway용 VIP(10.0.0.3) 을 keepalived 에 등록한다

* LB1, LB2의 keepalived config를 아래와 같이 수정한다하고 서비스 재시작

root@ubuntu14-pvha1:~# vi /etc/keepalived/keepalived.conf <== 아래 내용을 추가

...

vrrp_instance VI_2 {

  virtual_router_id 100

  advert_int 1

  priority 101

  state MASTER

  interface eth1

  virtual_ipaddress {

    10.0.0.3 dev eth1

  }

  track_script {

    haproxy

  }

}

root@ubuntu14-pvha1:~# service keepalived restart


root@ubuntu14-pvha2:~# vi /etc/keepalived/keepalived.conf <== 아래 내용을 추가

...

vrrp_instance VI_2 {

  virtual_router_id 100

  advert_int 1

  priority 100

  state MASTER

  interface eth1

  virtual_ipaddress {

    10.0.0.3 dev eth1

  }

  track_script {

    haproxy

  }

}

root@ubuntu14-pvha1:~# service keepalived restart


* 4개의 vm(ubuntu14-pv1~ubuntu14-pv4), interfaces config의 gateway 인 10.0.0.1을 VIP인 10.0.0.3으로 수정하고 네트워크 재시작 또는 리부팅(확인 과정은 위의 keepalived 확인 과정과 유사)

root@ubuntu14-pv1:~# vi /etc/network/interfaces

...

auto lo

iface lo inet loopback


# The primary network interface

auto eth0

#iface eth0 inet dhcp

iface eth0 inet static

address 10.0.10.1

netmask 255.255.0.0

network 10.0.0.0

broadcast 10.0.255.255

gateway 10.0.0.3

dns-nameservers 8.8.8.8



[관련글]

2015/06/28 - [Xen 가상화 2] ubuntu pv guest on Ubuntu 14.4 LTS, Xen 4.4.1 - 설치 및 설정 가이드

2015/06/30 - Linux NAT router 설정하기 - Ubuntu 14.4 dom0, xen pv guest 환경

2015/07/01 - Haproxy, Keepalived, nginx 를 이용한 고가용성(High Availablity) 웹서비스 환경 구현



- Barracuda -



  1. 이의 제기가 있어서 Comment 만 달아 둡니다. 잘 알려지고 활용성 높은...정도의 의미입니다. 벤치마킹을 해 보지 않아서 소프트웨어 LB중에 성능, 기능상 최고라고는 얘기 못한다는 말. [본문으로]
저작자 표시 비영리 변경 금지
신고
블로그 이미지

Barracuda

Bryan의 MemoLog. 쉽게 익혀 보는 IT 실습과 개념원리, 코딩 세계의 얕은 맛보기들, 평범한 삶 주변의 현상 그리고 進上, 眞想, 진상들


Haproxy 의 option mysqlchk 로 DB 의 가용 여부를 점검하는 데에 쓸 수 있으나
정상적인 점검이 정확하게 되지 않으며, MySQL의 connection을 잠식하는 문제점이 있다.
단순히 DB 접속 port만 감시하는 방법도 쓸 수 있으나, DB의 정상 가동여부를 체크하는 방법으로는 적합하지 않다.

xinetd service와, 간단한 db connection & query script를 이용
Assumption: MySQL home - /user/service/mysql
Thanks to Unai Rodriguez(script author) & Sysbible(http://sysbible.org/)

1. script 작성

# cd /user/service/mysql/bin; vi mysql_hc
#!/bin/bash MYSQL_HOST="localhost" MYSQL_PORT="3306" MYSQL_USERNAME="mysql_hc" MYSQL_PASSWORD="password" TMP_FILE="/user/service/mysql/var/mysqlchk.out" ERR_FILE="/user/service/mysql/var/mysqlchk.err" # a simple query /user/service/mysql/bin/mysql --host=$MYSQL_HOST --port=$MYSQL_PORT --user=$MYSQL_USERNAME --password=$MYSQL_PASSWORD -e "show databases;" > $TMP_FILE 2> $ERR_FILE # Check the output. If it is not empty then everything is fine and we return # something. Else, we just do not return anything. # if [ "$(/bin/cat $TMP_FILE)" != "" ] then # mysql is fine, return http 200 /bin/echo -e "HTTP/1.1 200 OK\r\n" /bin/echo -e "Content-Type: Content-Type: text/plain\r\n" /bin/echo -e "\r\n" /bin/echo -e "MySQL is running.\r\n" /bin/echo -e "\r\n" else # mysql is fine, return http 503 /bin/echo -e "HTTP/1.1 503 Service Unavailable\r\n" /bin/echo -e "Content-Type: Content-Type: text/plain\r\n" /bin/echo -e "\r\n" /bin/echo -e "MySQL is *down*.\r\n" /bin/echo -e "\r\n" fi

# chown root.mysql mysql_hc; chmod 744 mysql_hc
# mysql -uroot -ppassword
  > GRANT SELECT on mysql.* TO 'mysql_hc'@'%' \
  > IDENTIFIED BY 'password' WITH GRANT OPTION;
  > GRANT SELECT on mysql.* TO 'mysql_hc'@'localhost' \
  > IDENTIFIED BY 'password' WITH GRANT OPTION;
  > flush privileges;
# ./mysql_hc - 실행 결과 확인(HTTP/1.x 200 OK)


2.  vi /etc/services 에 아래 라인 추가

mysql_hc    28001/tcp                      # mysql_hc - mysql health checker

3. vi /etc/xinetd.d/mysql_hc

# default: on
# description: mysql_hc
service mysql_hc
{
        flags           = REUSE
        socket_type     = stream
        port            = 28001
        wait            = no
        user            = root
        server          = /user/service/mysql/bin/mysql_hc
        log_on_failure  += USERID
        disable         = no
        only_from       = 0.0.0.0/0      # recommended to put the IPs that need
                                                 # to connect exclusively (security purposes)
        per_source      = UNLIMITED
}
 
# service xinetd restart

4. 정상 작동 test

# telnet 10.10.0.10 28001

Trying 10.10.0.10... Connected to 10.10.0.10. Escape character is '^]'. HTTP/1.1 200 OK Content-Type: Content-Type: text/plain MySQL is running. Connection closed by foreign host.


5. HaProxy configuration 에 설정 추가

listen RDB-1
        bind 10.10.0.71:28000
        mode tcp
        option httpchk
        timeout connect 5m
        timeout client 30m
        timeout server 30m
        server RDB-1 10.10.0.10:3306 check port 28001 inter 5s rise 1 fall 3
        server RDB-2 10.10.0.30:3306 check port 28001 inter 5s rise 1 fall 3 backup
        log global


저작자 표시 비영리 변경 금지
신고
블로그 이미지

Barracuda

Bryan의 MemoLog. 쉽게 익혀 보는 IT 실습과 개념원리, 코딩 세계의 얕은 맛보기들, 평범한 삶 주변의 현상 그리고 進上, 眞想, 진상들