现在,带宽不是我主要关注的问题,而是延迟。
如果我在应用程序服务器与其数据库服务器之间放置数百公里,会发生什么情况?
我正在寻找一种可能性来模拟每个IP数据包的预期延迟。
现在,带宽不是我主要关注的问题,而是延迟。
如果我在应用程序服务器与其数据库服务器之间放置数百公里,会发生什么情况?
我正在寻找一种可能性来模拟每个IP数据包的预期延迟。
Answers:
您可以使用进行此操作netem
。从他们的主页:
模拟广域网延迟
这是最简单的示例,它只是向从本地以太网传出的所有数据包增加了固定的延迟量。
# tc qdisc add dev eth0 root netem delay 100ms
现在,对本地网络上的主机进行的简单ping测试应该显示增加了100毫秒。延迟受内核的时钟分辨率(Hz)限制。在大多数2.4系统上,系统时钟以100 Hz运行,这允许以10 ms为增量的延迟。在2.6上,该值是1000到100 Hz之间的配置参数。
后面的示例仅更改参数而无需重新加载qdisc
实际的广域网显示出可变性,因此可以添加随机变化。
# tc qdisc change dev eth0 root netem delay 100ms 10ms
这导致增加的延迟为100±10 ms。网络延迟变化并非纯粹是随机的,因此要模拟也存在一个相关值。
# tc qdisc change dev eth0 root netem delay 100ms 10ms 25%
这导致添加的延迟为100±10 ms,而下一个随机元素取决于最后一个元素的25%。这不是真正的统计相关性,而是近似值。
延迟分配
通常,网络中的延迟不是均匀的。更常见的是使用正态分布之类的东西来描述延迟的变化。netem学科可以使用一个表来指定非均匀分布。
# tc qdisc change dev eth0 root netem delay 100ms 20ms distribution normal
实际的表(普通表,pareto,paretonormal)作为iproute2编译的一部分生成,并放置在/ usr / lib / tc中。因此可以根据实验数据做出一些自己的分配。
tc
甚至在当前的SLES和RHEL系统上也是如此。