Questions tagged «latency»

延迟是指从发送信号到接收信号的时间间隔

9
对于美国东西海岸,网络延迟是多少?
目前,我们正在尝试确定是否将数据中心从西海岸迁移到东海岸。 但是,从我的西海岸位置到东海岸,我看到一些令人不安的等待时间。这是一个示例结果,它在Google Chrome中检索了一个小的.png徽标文件,并使用开发工具来查看请求需要多长时间: 西海岸到东海岸: 延迟215毫秒,传输时间46毫秒,总计261毫秒 西海岸到西海岸: 延迟114毫秒,传输时间41毫秒,总计155毫秒 在科罗拉多州,Corvallis地理位置更接近我在加利福尼亚州伯克利的位置,这是有道理的,因此我希望连接速度会更快。服务器。对我来说,这似乎太过分了。特别是由于传输实际数据所花费的时间仅增加了10%,而延迟却增加了100%! 对我来说,这感觉...不对。 我在这里找到了一些有用的链接(通过Google也不少!)... 布线距离会严重影响性能吗? 地理位置如何影响网络延迟? 从欧洲到美国的互联网连接延迟 ...但是没有权威。 那么,这正常吗?感觉不正常。从美国的东海岸<->西海岸移动网络数据包时,我应该期望的“典型”延迟是多少?

8
为什么在本地主机上的响应如此缓慢?
我正在为我的一个朋友开发一个小的PHP项目,并且为本地开发设置了WAMP环境。我记得本地Apache 2.2响应迅速的日子。las,既然我从一个漫长的假期中回来,我发现localhost痛苦的反应很慢。 送出300B HTML页面大约需要5秒钟。 当我查看任务管理器时,httpd进程(2)占用了0%的CPU,并且我的计算机总体上没有负载(0-2%的CPU使用率)。 为什么延迟这么高?是否有任何我可以调整的Apache设置,可以使其线程以更高的优先级运行?似乎在提供响应之前只是在睡觉。

7
解决ESXi NFS数据存储上的延迟峰值问题
我在ESXi中的NFS数据存储上遇到了大约五秒钟的 fsync延迟,这是由某些VM触发的。我怀疑这可能是由使用NCQ / TCQ的VM引起的,因为在虚拟IDE驱动器中不会发生这种情况。 可以使用fsync-tester(由Ted Ts'o)和ioping复制。例如,使用带有8GB磁盘的Grml实时系统: Linux 2.6.33-grml64: root@dynip211 /mnt/sda # ./fsync-tester fsync time: 5.0391 fsync time: 5.0438 fsync time: 5.0300 fsync time: 0.0231 fsync time: 0.0243 fsync time: 5.0382 fsync time: 5.0400 [... goes on like this ...] 那是5秒,而不是毫秒。甚至在同一主机和数据存储上运行的不同VM上创建IO延迟: root@grml /mnt/sda/ioping-0.5 # ./ioping -i 0.3 -p 20 . 4096 …

4
为什么移动网络具有高延迟?如何减少它们?
我越来越多地看到移动网络技术被用于在其他地方无法获得的互联网访问。 虽然移动网络通常尚不适合作为主要的Internet连接,但移动技术似乎是紧急回退的不错选择。 带宽不是问题:使用HDSPA,可以达到几个MBit的速度,从而提供了不错的上行链路。但是,根据我的个人经验,我知道移动网络Internet链接(通过GPRS,UMTS等)的延迟要比常规DSL(UMTS为200-400毫秒,而GPRS更高)更长。当然,这使它们不适用于许多应用程序,例如VoIP和电话会议。 延迟从何而来? 是否有可用的技术可以缓解此问题,从而使UMTS在低延迟应用程序中可行? 我认为一定有一些固有的技术原因,但这是什么?它与空中传输数据的方式有关吗?如果是由于无线传输,为什么WLAN的延迟要低得多?

2
从ping获得的数据:是往返还是单向?
我有2台服务器,每台服务器位于两个不同的位置。我需要在一个主机上托管一个应用程序,在另一个主机上托管数据库服务器。 从应用程序服务器,如果我对数据库服务器执行ping操作,平均时间约为30毫秒。 我的问题是: When I query the database from the app; 是否要采取 30 ms + database_server_query_run_time 要么; 需要30 毫秒吗30 ms + database_server_query_run_time 我想了解这一点。

7
加快高延迟网络上的SFTP上传速度?
我正在尝试使用SFTP在国际上传输一组大文件,但是我发现我的国际合作伙伴尽管两边的连接都很好,但上传速度无法达到约50k以上。我们可以以此速度上载多个连接(因此不能上带宽吗?),但是没有一个上载可以提高速度,这是一个问题,因为许多文件的大小只有几GB。 使用标准的Apple OSX“远程登录” SFTP系统托管SFTP。 有没有办法提高上传速度,还是有其他的SFTP主机会有所帮助?我不清楚这是配置问题还是协议的固有限制。 (出于安全原因,我需要使用端到端加密的对等连接-无需云服务)。

4
通过Wi-Fi间歇性地向路由器发送ping的时间较长
在我的本地网络上,(除其他外)有5台计算机(正在运行Debian Jessie或Arch)无线连接到Netgear WNDR4000路由器。下图是从每台计算机到路由器的ping时间的图表,收集了大约半小时的时间。 观察结果: 当一切正常时,ping时间都在3ms以下(其中两台机器(包括问题机器Purple)的ping时间都在1ms以下 在不规则的时间间隔(大约100秒)中,其中三台计算机(红色,绿色,紫色)会降低ping时间,而其他两台计算机则不受影响。 所有3台机器的降级时间一致。 对于降解紫色的幅度比更严重的两个数量级的绿色和红色,用ping时间通常达到了20000ms为紫色和200毫秒为红色和绿色。 如果将紫色物理地移到路由器附近,则紫色的降解将完全消失,而红色和绿色的降解仍将继续 。 红色在距基站3m的视线内; 紫色的常规位置是在10m附近,没有直接的视线。 这使得紫色上的网络访问变得异常缓慢(当它处于正常位置时)。 您能建议如何诊断和解决问题吗?

6
地理位置如何影响网络延迟?
我可以选择在美国东海岸(美国)或西海岸(美国)的托管托管公司中托管数据库/ Web服务器。我们公司位于纽约市以外,两家托管服务提供商都为我们的包装盒提供专用的T1生产线。 如果我选择西海岸的服务器而不是东海岸的服务器,那么在网络延迟方面,我将承受多少性能下降(假设所有其他因素都相等)?当数字和距离变得非常大(T1及以上,以及数千英里)时,我不太确定地理对互联网速度的影响。 谢谢!


1
如何解决2个Linux主机之间的延迟问题
2个Linux主机之间的延迟约为0.23毫秒。它们通过一个开关连接。Ping&Wireshark确认等待时间数。但是,我对导致此延迟的原因没有任何了解。我如何知道延迟是否是由于主机A或B上的NIC或交换机或电缆引起的? 更新:0.23毫秒的延迟对我现有的应用程序不利,该应用程序以很高的频率发送消息,我正在尝试查看是否可以将其降低到0.1毫秒。

3
确定Web服务器每秒的实际请求量
我要设置nginx堆栈并在上线之前优化配置。运行ab来对机器进行压力测试,我很失望地看到事情以每秒150个请求的速度达到顶峰,并且大量请求花费了大于1秒的时间才能返回。奇怪的是,机器本身甚至没有呼吸困难。 我终于想到要ping通此框,并看到ping时间约为100-125毫秒。(令我惊讶的是,这台机器遍布全国)。因此,似乎网络延迟正在主导我的测试。在与服务器位于同一网络上的机器上运行相同的测试(ping时间<1ms),我看到每秒有5000个请求,这与我对机器的预期更加一致。 但是,这让我开始思考:如何确定和报告Web服务器每秒的“实际”请求量?您总是会看到有关性能的声明,但是是否不应该考虑网络延迟?当然,我可以每秒向服务器旁边的计算机提供5000个请求,但不能为全国的计算机提供服务。如果我的连接速度很慢,它们最终会影响服务器的性能,对吗?还是我在想这一切错了? 如果这是网络工程101的东西,请原谅我。我是一名按行业划分的开发商。 更新:为清楚起见进行了编辑。

4
测量SSH会话的总延迟
有没有一种方法可以测量/报告隧道SSH会话中的整体延迟? 我的特殊设置是: 客户端(OS X + wifi路由器+ ADSL调制解调器) 网关SSH服务器暴露给Internet 我正在传送到的内部SSH目标 我对查看本地计算机上的控制台与打开会话的最终计算机之间的延迟感兴趣。

2
限制Linux中的传入和传出带宽以及延迟
我知道已经问过许多类似的问题,但到目前为止,我还没有找到解决问题的方法。 我有一个虚拟linux服务器(运行Debian Squeeze),用于测试网站速度,以测量所述网站的加载时间的增加和减少。我试图限制此服务器的带宽和延迟,以便能够接近网站上的实际加载时间,但到目前为止却失败了。 我具体想要的是以下内容: 将传入和传出延迟设置为50毫秒。 将传入带宽限制设置为512 kbps。 将输出带宽限制设置为4096 kbps。 我一直在阅读netem并使用该tc命令,但仍然有些麻烦。我已经设法将以下命令组合在一起以控制似乎有效的延迟,但是我什至不确定这是否只能处理传出延迟或同时处理这两者: tc qdisc add dev eth0 root netem delay 50ms 周围的网络专家都可以帮助我吗? 编辑: 经过进一步的研究,我已经达到了目标的一半,使用此命令,所有传出流量的行为均符合我的期望: tc qdisc add dev eth0 root tbf rate 4.0mbit latency 50ms burst 50kb mtu 10000 但是,我仍然无法适当限制传入的流量。我了解到我应该使用“ Ingress Policer过滤器”,我一直在尝试使用下面的命令来做到这一点,使用不同的值,但是没有运气。 tc qdisc add dev eth0 ingress tc filter add dev …


2
Ubuntu上的低延迟TCP设置
在我的实验室中,有一台用于测量的服务器正在Ubuntu上运行。并且有C程序,它通过TCP连接接收数据并应尽快发送答复。 组态 CPU:2个处理器x 4核-Intel(R)Xeon(R)CPU E5345 @ 2.33GHz 内存:12 GB NIC:英特尔公司80003ES2LAN千兆位以太网控制器/ 82546EB千兆位以太网控制器 网络交换机:Cisco Catalyst 2960 数据信息:数据块来了。每10毫秒。数据块大小约为 1000字节 接收数据包时的网络延迟非常关键(数十微秒很重要)。我对程序进行了最大程度的优化,但是我没有调整Ubuntu的经验。 在Ubuntu中可以配置什么以减少本地处理/发送数据包的延迟?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.