Questions tagged «performance»

有关服务器硬件和软件性能或网络性能的问题。

6
如何提高MySQL INSERT和UPDATE性能?
也可以在StackOverflow上问这个问题,但我会先在这里尝试... 数据库中INSERT和UPDATE语句的性能似乎正在下降,并导致Web应用程序的性能下降。 表是InnoDB,应用程序使用事务。我可以做些简单的调整来加快速度吗? 我认为我们可能会遇到一些锁定问题,如何找到?

10
如何对外部DNS查找的性能进行基准测试?
我正在考虑将Google的公共DNS服务器作为网络的外部DNS。目前,我正在使用来自ISP的DNS服务器。我过去也曾考虑过OpenDNS,但最终决定不跳楼。 我希望能够对各个服务器能够满足我们的DNS请求的速度进行基准测试。我在nslookup中看不到有任何帮助。 如何测试外部提供的DNS的往返时间?

16
实时监视MS Windows服务器及其服务
我们的监控办公室里有一堆大型高清电视,它们监视着我们所有的生产设备。 我们正在监视: 思科路由器 惠普开关 HP Proliant服务器 Windows 2003 IIS SQL服务器 目前我们使用 Nagios的正常运行时间/可用性和警报发送 仙人掌用于带宽使用 在Vista上运行以提高服务器性能的Perfmon 其他工具和我们自己的自定义代码的组合,以监视我们实际的应用程序性能。 除了Perfmon以外,所有这些都很好-它提供了我们想要的-即屏幕上的实时图表,记录某些性能计数器等-唯一的问题是设置它确实是一件繁琐的事情。如果重新启动运行Perfmon的Vista PC(通常是由于Windows Update),则重新设置所有计数器将花费一些时间-实际上对于办公室中的某个人来说,是一两个小时的工作量…… 任何人都知道一种方法:1.添加Perfmon计数器的脚本2.具有图形输出和WMI / windows计数器访问权限的另一个工具。 谢谢 麦克风

6
在线第一天:如何不杀死您的网站
假设您有一个新网站,上面有很多数据(例如大图像),并且您打算将其放到网上。如果您“过多”地进行宣传,则在最初的几天中,该网站将不知所措。 如何减轻这种风险? 我想到了 像SO和SF一样逐步上线:“私有”测试版,公开测试版,公开 允许X 连接数 会话同时进行,因此连接的用户仍然对网站有良好的体验,其他用户则道歉 我不能: 购买更多服务器,因为第一天之后,该网站的访问量就会大大减少:)


1
虚拟化-10个1Gbps链接还是1个10Gbps链接?(性能)
我有一台具有多个VM(5)和3个物理网卡(每个2个端口)的机器,总共有六个1Gbps以太网端口。 我有一个具有SPF功能的交换机,总带宽为48Gbps,SPF链路为10Gbps。该服务器还有一个SPF端口(10Gbps)。 我很好奇,最好的设置是什么,在性能方面要明智(要从中获得最大收益,CPU使用率最少),为什么? 将所有VM都连接到一个SPF端口然后再连接到交换机上的SPF端口会更好,还是应该获得5根以太网电缆并将它们连接到网络交换机上的5个端口? 如果仍然不清楚,请考虑以下情形: 交换机上的两台PC分别要从VM A下载一个大文件,并要从VM B下载另一台PC。如果它们通过以太网连接,则每台PC都有自己的连接,因此从VM A的连接将切换到PCA。 ,然后将VM B的连接切换到PC B,对吗?如果将两个VM都连接到SPF,则SPF端口将在PC A和B之间切换。 那么哪种方案在最大负载下表现最佳?为什么? 编辑:我想保持这种相当通用,以便可以将其应用于全局方案,但已经询问了安装程序的详细信息,它们是: 服务器:PowerEdge T620 SPF卡:PEX10000SFP 10 GB NIC:3x NetXtreme BCM5720 操作系统:XenServer 6.2 CPU:Xeon E5-2609 交换机:T1600G-28TS 来宾操作系统:Debian Wheezy(PV)

1
OpenVPN性能低下。我有MTU问题吗?内部转储
我遇到无法达到线速度的OpenVPN隧道的问题。网关是OVH托管的Debian Jessy虚拟服务器。客户端是我的freebsd 10.2家庭服务器(Intel I3 Ivy Bridge)或我的RaspberryPI2。我停用了加密和身份验证。我有一个100mbit / s的对称FTTH连接,但隧道的速度仅为20-40mbit / s。直接连接(不使用隧道)总是可以产生100mbit / s的速度。我使用iperf3测试了性能。我首先尝试使用freebsd homeserver。我尝试了有关mssfix,fragment等的所有推荐设置。没有任何帮助。 然后我想也许这是我的freebsd机器。因此,我在RPI2上安装了新的Raspbian Jessy,并进行了更多的深度测试: 首先,我从OpenVPN配置中删除了所有MTU设置,并让路径MTU(希望)进行处理。由于两台计算机上都没有激活防火墙,因此它应该可以工作。这些是我的vpn配置: server 10.8.0.0 255.255.255.0 port 1194 proto udp dev tun sndbuf 0 rcvbuf 0 user nobody group nogroup persist-key persist-tun ifconfig-pool-persist ipp.txt keepalive 10 120 push "redirect-gateway def1" status openvpn-status.log verb 3 ca /etc/openvpn/easy-rsa/keys/ca.crt cert …
13 vpn  performance  openvpn  mtu 

4
tcpdump提高udp性能
我正在运行一组负载测试以确定以下设置的性能: Node.js test suite (client) --> StatsD (server) --> Graphite (server) 简而言之,node.js测试套件每隔x秒就会向另一台服务器上的StatsD实例发送一定数量的指标。然后,StatsD每秒将指标刷新到位于同一服务器上的Graphite实例。然后,我查看测试套件实际发送了多少度量,以及Graphite收到了多少度量,以确定测试套件与Graphite之间的数据包丢失。 但是我注意到有时我会有非常大的丢包率(注意它是通过UDP协议发送的),范围从20%到50%。因此,当我开始查看这些数据包的丢弃位置时,发现StatsD可能是一些性能问题。因此,我开始记录系统各个部分的指标,以跟踪发生此下降的位置。这就是事情变得奇怪的地方。 我正在使用tcpdump创建一个捕获文件,在测试运行完成后检查该文件。但是每当我在运行tcpdump的情况下运行测试时,几乎都不存在数据包丢失的情况!看起来tcpdump某种程度上提高了我的测试性能,但我不知道为什么以及如何做到这一点。我正在运行以下命令来在服务器和客户端上记录tcpdump消息: tcpdump -i any -n port 8125 -w test.cap 在一个特定的测试案例中,我正在发送40000个指标/秒。运行tcpdump时的测试的数据包丢失率约为4%,而没有进行测试的数据包丢失率约为20% 这两个系统均通过以下设置作为Xen VM运行: 英特尔至强E5-2630 v2 @ 2.60GHz 2GB RAM Ubuntu 14.04 x86_64 我已经检查过的潜在原因: 增加UDP缓冲区的接收/发送大小。 影响测试的CPU负载。(客户端和服务器端的最大负载为40-50%) 在特定接口而不是“ any”上运行tcpdump。 使用'-p'运行tcpdump以禁用混杂模式。 仅在服务器上运行tcpdump。这导致发生20%的数据包丢失,并且似乎不影响测试。 仅在客户端上运行tcpdump。这样可以提高性能。 将netdev_max_backlog和netdev_budget增加到2 ^ 32-1。这没什么区别。 在每个nic上尝试了混杂模式的所有可能设置(服务器打开和客户端关闭,服务器关闭和客户端打开,都打开,都关闭)。这没什么区别。

2
磁盘IOPS与sar tps之间的关系
我试图估计在32位CentOS 6.2上运行的应用程序的IOPS要求。我开始在装有SATA磁盘的计算机上进行一些测量,但对SAR测量的IOPS和tps之间的差异感到非常困惑。 根据维基百科, SATA磁盘应执行75-100 IOPS。ioping实用程序似乎可以为随机访问测试确认这一点: # ./ioping -R /dev/sda --- /dev/sda (device 931.0 Gb) ioping statistics --- 279 requests completed in 3.0 s, 92 iops, 371.3 kb/s min/avg/max/mdev = 2.7 ms / 10.8 ms / 130.8 ms / 7.9 ms 但是sar产生的tps值要高得多(/ dev / sda): # iostat 1 avg-cpu: %user %nice …

4
编译和二进制Linux发行版/软件包之间的性能差异
我在互联网上搜索了很多内容,却找不到确切的答案。 有些发行版(如Gentoo(或FreeBSD))不附带二进制文件,而只附带包(端口)的源代码。 大多数发行版都使用二进制支持(debian等)。 第一个问题:编译后的程序包可以提高多少速度?我可以从apache或mysql之类的实际程序包中获得多少速度提升?即每秒查询? 第二个问题:二进制软件包是否表示它不使用第一个AMD 64位CPU之后引入的任何CPU指令?使用32位软件包是否意味着该软件包将在386上运行,并且基本上不使用大多数现代CPU指令? 附加信息: 我说的不是台式机,而是服务器环境。 我不在乎编译时间 我有更多的服务器,因此使用源代码包值得将速度提高15%以上 请不要打架。

1
计算ZFS RAIDZ的IOPS是否不同于计算RAID5和RAID6的IOPS?
在计算传统RAID阵列的IOPS时,可以使用以下公式(取自Symantec Connect上的IOPS v1.3入门): Ieffective = (n * Isingle) / (READ% + (F * WRITE%)) 哪里: 有效是IOPS的有效数量 Isingle是单个驱动器的平均IOPS。 n是阵列中的磁盘数 READ%是从磁盘配置文件读取的分数 WRITE%是从磁盘性能分析获取的写入次数的一部分 F是RAID写惩罚: RAID Level Write Penalty RAID-0 1 RAID-1 2 RAID-5 4 RAID-6 6 RAID-10 2 RAID-DP 2 该公式实质上是以下功能的函数: 阵列中每个驱动器的IOPS 磁盘数。更多的磁盘意味着更多的IOPS 每个写入操作的RAID损失。 RAID5和RAID6每次写入都需要4个以上的磁盘操作。控制器必须先读取该块,然后读取奇偶校验数据(两次操作),计算新的奇偶校验数据,然后更新奇偶校验块并更新数据块(再执行两次操作)。RAID6具有两个奇偶校验块,因此需要三个读取和三个写入。因此,RAID5和RAID6阵列的IOPS比RAID1少。 RAID1和RAID10仅需要2次写入,一次写入镜像中的每个磁盘。 而且要明确的是,所有这些都提供了对理论性能的估计。各种控制器和RAID方法都有一些技巧来加快其中的一些速度。 ZFS相当于RAID5和RAID6的是RAIDZ和RAIDZ2。在为RAIDZ阵列计算IOPS时,我可以使用与RAID5和RAID6相同的公式,还是ZFS具有特殊的技巧来减少写操作所需的操作数量。 在为RAIDZ阵列计算IOPS时,可以使用其他公式吗?

2
在单个Linux服务器上运行不同文件系统的性能影响
这本书“的HBase权威指南”指出, 不建议在单个服务器上安装不同的文件系统。这可能对性能产生不利影响,因为内核可能必须拆分缓冲区高速缓存以支持不同的文件系统。据报道,对于某些操作系统,这可能会造成毁灭性的性能影响。 这真的适用于Linux吗?我从未见过缓冲区缓存大于300 MB,并且大多数现代服务器都具有GB的RAM,因此在不同文件系统之间分配缓冲区缓存应该不是问题。我还有其他东西吗?


2
Rabbitmq-合理的性能/规模期望
如果有人能指出我对Rabbitmq的合理比例数字/限制(关于“平均”硬件,fwiw)或发表其性能的经验,我将不胜感激。我正在尝试了解队列数量,队列上的订户数量,扇出队列上有成百上千个侦听器的性能影响,任何硬数字在任何人都可能在大容量环境中运行Rabbit的能力。

3
配置路由器以丢弃数据包,引入延迟,破坏数据
我想知道是否有人在设置通过网络发送/接收请求时故意针对不良性能而设计的环境方面有任何经验。我正在开发一个应用程序,并希望使其在性能极差的网络上变得强大。有谁知道是否可以将路由器配置为: 间歇性丢包 间歇性地在数据包中引入延迟 破坏数据包中的数据(由于TCP层会捕获此类问题,因此不需要打开数据包,更改数据和更新校验和,因此不需要此数据) 如果不能在路由器上进行配置,是否可以将计算机配置为路由器并执行此操作? 非常感谢!

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.