我已经设置了一对具有RAID阵列(8核,16GB RAM,12x2 TB RAID6),3个10GigE接口的相同服务器,以承载一些高可用性服务。
该系统当前正在运行Debian 7.9 Wheezy oldstable(因为在8.x稳定版或测试中无法使用corosync / pacemaker)。
- 本地磁盘性能约为900 MB / s写入,1600 MB / s读取。
- 机器之间的网络吞吐量超过700MB / s。
- 通过iSCSI,每台计算机可以超过700 MB / s的速度写入对方的存储。
但是,无论我以哪种方式配置DRBD,吞吐量都被限制为100MB / s。它确实看起来像是一些硬编码的限制。通过调整设置,我可以可靠地降低性能,但是它永远不会超过1Gbit(一次连续几秒钟达到122MB / s)。我真的很喜欢这个。
- 普通香草核3.18.24 amd64
- drbd 8.9.2〜rc1-1〜bpo70 + 1
配置分为两个文件global-common.conf:
global {
        usage-count no;
}
common {
        handlers {
        }
        startup {
        }
        disk {
                on-io-error             detach;
         #       no-disk-flushes ;
        }
        net {
                max-epoch-size          8192;
                max-buffers             8192;
                sndbuf-size             2097152;
        }
        syncer {
                rate                    4194304k;
                al-extents              6433;
        }
}
和cluster.res:
resource rd0 {
        protocol C;
        on cl1 {
                device /dev/drbd0;
                disk /dev/sda4;
                address 192.168.42.1:7788;
                meta-disk internal;
        }
        on cl2 {
                device /dev/drbd0;
                disk /dev/sda4;
                address 192.168.42.2:7788;
                meta-disk internal;
        }
}
从cat /proc/drbd站上的输出:
version: 8.4.5 (api:1/proto:86-101)
srcversion: EDE19BAA3D4D4A0BEFD8CDE 
 0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r-----
    ns:0 nr:4462592 dw:4462592 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:16489499884
        [>....................] sync'ed:  0.1% (16103024/16107384)M
        finish: 49:20:03 speed: 92,828 (92,968) want: 102,400 K/sec
来自vmstat 2主服务器的输出(两台机器几乎都处于空闲状态):
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa
 0  0      0 14952768 108712 446108    0    0   213   254   16    9  0  0 100  0
 0  0      0 14952484 108712 446136    0    0     0     4 10063 1361  0  0 99  0
 0  0      0 14952608 108712 446136    0    0     0     4 10057 1356  0  0 99  0
 0  0      0 14952608 108720 446128    0    0     0    10 10063 1352  0  1 99  0
 0  0      0 14951616 108720 446136    0    0     0     6 10175 1417  0  1 99  0
 0  0      0 14951748 108720 446136    0    0     0     4 10172 1426  0  1 99  0
iperf两台服务器之间的输出:
------------------------------------------------------------
Client connecting to cl2, TCP port 5001
TCP window size:  325 KByte (default)
------------------------------------------------------------
[  3] local 192.168.42.1 port 47900 connected with 192.168.42.2 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec  6.87 GBytes  5.90 Gbits/sec
显然,初始同步应该有点慢,但不会慢一些……此外,它实际上对任何限制同步速率的尝试都没有反应drbdadm disk-options --resync-rate=800M all。