Questions tagged «drbd»

3
10GigE上的DRBD糟糕的同步性能
我已经设置了一对具有RAID阵列(8核,16GB RAM,12x2 TB RAID6),3个10GigE接口的相同服务器,以承载一些高可用性服务。 该系统当前正在运行Debian 7.9 Wheezy oldstable(因为在8.x稳定版或测试中无法使用corosync / pacemaker)。 本地磁盘性能约为900 MB / s写入,1600 MB / s读取。 机器之间的网络吞吐量超过700MB / s。 通过iSCSI,每台计算机可以超过700 MB / s的速度写入对方的存储。 但是,无论我以哪种方式配置DRBD,吞吐量都被限制为100MB / s。它确实看起来像是一些硬编码的限制。通过调整设置,我可以可靠地降低性能,但是它永远不会超过1Gbit(一次连续几秒钟达到122MB / s)。我真的很喜欢这个。 普通香草核3.18.24 amd64 drbd 8.9.2〜rc1-1〜bpo70 + 1 配置分为两个文件global-common.conf: global { usage-count no; } common { handlers { } startup { } disk …

4
如何在2节点主动/被动linux HA起搏器群集中设置STONITH?
我正在尝试使用corosync和心脏起搏器设置主动/被动(2个节点)Linux-HA集群,以保持PostgreSQL数据库的正常运行。它通过DRBD和service-ip起作用。如果node1发生故障,则node2应该接管。如果PG在node2上运行并且失败,则相同。除了STONITH之外,其他一切都正常。 节点之间是专用的HA连接(10.10.10.X),因此我具有以下接口配置: eth0 eth1 host 10.10.10.251 172.10.10.1 node1 10.10.10.252 172.10.10.2 node2 Stonith已启用,我正在使用ssh-agent测试以杀死节点。 crm configure property stonith-enabled=true crm configure property stonith-action=poweroff crm configure rsc_defaults resource-stickiness=100 crm configure property no-quorum-policy=ignore crm configure primitive stonith_postgres stonith:external/ssh \ params hostlist="node1 node2" crm configure clone fencing_postgres stonith_postgres crm_mon -1 显示: ============ Last updated: Mon Mar …

2
无法将drbd切换到辅助
我正在drbd83使用ocfs2in centos 5并计划packemaker与它们一起使用。一段时间之后,我面临着drbd大脑分裂的问题。 version: 8.3.13 (api:88/proto:86-96) GIT-hash: 83ca112086600faacab2f157bc5a9324f7bd7f77 build by mockbuild@builder10.centos.org, 2012-05-07 11:56:36 1: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown r----- ns:0 nr:0 dw:112281991 dr:797551 al:99 bm:6401 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:60 我无法将我的drbd切换到中学。 drbdadm secondary r0 1: State change failed: (-12) Device is held open by someone Command 'drbdsetup 1 secondary' …

2
DRBD代理/ WAN体验
我想考虑使用DRBD在主要位置和次要位置之间进行数据复制。最初的计划是在两者之间建立VPN隧道。初级端使用双T1链路的一部分,而次级位置设置在电缆/ DSL线上。 辅助服务器仅用于灾难恢复-它将“永不”复制回主服务器。 有没有人做/累/使用过类似的东西,您对此有何经验? Linbit还具有(付费)DRBD代理产品,该产品应设计用于跨WAN类型链接(压缩,多个对等点)运行。有人尝试过吗?
9 drbd 

1
IPoIB(基于InfiniBand的IP)与RDMA性能
我已经部分继承了Linux HA群集,该群集的中心目前用于在两个Debian主机之间通过IPoIB(基于InfiniBand的IP)与DRBD 8进行连接。它没有坏,所以我不会修复。 我还注意到DRBD 9支持RDMA,因此将来可能会出现问题,即是否通过RDMA(即“本地” InfiniBand)用DRBD 9替换连接。 由于我不想在生产系统上运行性能测试,因此我想知道:是否已发布IPoIB与RDMA / InfiniBand的性能比较。例如,我能否期望从IPoIB切换到10%,50%或100%的数量级来获得带宽/等待时间收益?会发生什么?

1
如何在LVM上调整DRBD磁盘的大小?
这是我的drbd配置 resource mysql { protocol C; floating 10.100.101.1:7788 { device /dev/drbd0; disk /dev/VolGroup00/LogVol02; meta-disk internal; } floating 10.100.101.2:7788 { device /dev/drbd0; disk /dev/VolGroup01/LogVol02; meta-disk internal; } } 两个节点上LVM上的磁盘设置为50G,两个节点上LVM上的磁盘设置为+ 4G(现在总共为54G) 但是当我尝试跑步时 [root@db1 ~]# resize2fs /dev/VolGroup00/LogVol02 resize2fs 1.39 (29-May-2006) resize2fs: Device or resource busy while trying to open /dev/VolGroup00/LogVol02 Couldn't find valid …
8 lvm  drbd 

2
LVM / DRBD调整大小后,df报告错误信息
我有一个具有DRBD安装分区的Debian Xen DomU。我需要将该分区的大小从46G调整为50G。我做了以下事情: 在辅助节点上停止了DRBD: /etc/init.d/drbd stop 将基础LVM dist增加到50 GB: lvresize -L 50G /lvm/device 再次启动DRBD并等待磁盘同步: /etc/init.d/drbd start 切换的原语。并在另一个节点上执行相同的操作。 在现在的辅助DRBD节点上停止了drbd: /etc/init.d/drbd stop 增加了基础LVM: lvresize -L 50G /lvm/device 再次启动DRBD并等待磁盘同步: /etc/init.d/drbd start 在两个节点上发出: drbdadm resize drbd-device 在主节点上发出: resize2fs /dev/drbd0 我得到这个回应: $ resize2fs 1.40-WIP (14-Nov-2006) The filesystem is already 12058624 blocks long. Nothing to do! …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.