Questions tagged «benchmark»

基准测试是在不同情况下收集有关系统性能的数据,以测量对系统更改的影响,将系统与其他选项进行比较或确定最大容量的过程。


12
虚拟机是否比基础物理机慢?
这个问题很笼统,但是最具体地说,我想知道运行Ubuntu Enterprise Cloud的虚拟机是否比没有任何虚拟化功能的同一物理机慢。多少(1%,5%,10%)? 有没有人衡量Web服务器或数据库服务器(虚拟VS物理)的性能差异? 如果取决于配置,让我们想象一下运行64位ubuntu企业服务器的两个四核处理器,12 GB内存和一堆SSD磁盘。最重要的是,只有1个虚拟机允许使用所有可用资源。


7
数百万个小文件的文件系统
在以下情况下,您将选择哪种Linux文件系统以获得最佳速度: 一亿个档案 平均约2k文件大小 > 95%的读取权限 相当随机的访问 高并发(> 100个进程) 注意:文件存储在深层次树中,以避免目录过大。每个叶目录包含大约一千个文件。 您将如何进行基准测试?

7
Xen与KVM在性能上
在相同的硬件(Xen或KVM)上,什么更快? 我正在尝试采用一种虚拟化技术,该技术可以提供最佳性能。 我在此找到了一些基准测试:http : //virt.kernelnewbies.org/XenVsKVM 他们将KVM视为赢家,并且在性能上有显着差异-这与KVM是Type-2虚拟机管理程序的想法背道而驰,按照定义,它应该比Type-1虚拟机管理程序(例如Xen)要慢-或至少网络上的文章说。 关于这个主题有什么想法吗?

2
您如何进行数据库的负载测试和容量规划?
这是关于数据库容量规划的规范问题。 有关: 您可以帮助我进行容量规划吗? 您如何进行网站的负载测试和容量规划? 我正在寻找一个有关数据库容量规划的工具和方法的规范问题。这是一个典型的问题。 显然,一般的工作流程是: 放好方案 添加监控 增加流量 评估结果 根据结果​​进行补救 漂洗,重复直到相当开心 请随意描述用于不同Web服务器,框架等的不同工具和技术以及最佳实践。

1
Apache Ab:请解释输出
我环顾四周,根本找不到输出的任何详细说明。多数确实很容易理解,但是有一部分使我困惑: Time per request: 109537.505 [ms] (mean) Time per request: 109.538 [ms] (mean, across all concurrent requests) 对我来说,这意味着,如果您对所有并发请求进行度量(无论这意味着什么),那么这些请求突然返回的速度会快100倍。为什么每个请求的时间会有如此大的变化?这是没有道理的。 关于此输出以及ab输出的其他部分是否有任何详细说明?

9
如何将TCP通信复制到一台或多台远程服务器以进行基准测试?
基础设施:数据中心中的服务器,OS-Debian Squeeze,Web服务器-Apache 2.2.16 情况: 我们的客户每天都在使用实时服务器,因此无法测试调整和改进。因此,我们想将实时服务器上的入站HTTP通信实时复制到一个或多个远程服务器。流量必须传递到本地Web服务器(在本例中为Apache)和远程服务器。因此,我们可以调整配置,并在远程服务器上使用不同/更新的代码进行基准测试,并与当前的实时服务器进行比较。目前,网络服务器正在监听大约。由于客户端结构,除了80和443之外,还增加了60个端口。 问题:如何实现与一台或多台远程服务器的重复? 我们已经尝试过: agnoster复制器-这将要求每个端口一个开放会话,这是不适用的。(https://github.com/agnoster/duplicator) kklis代理-仅将流量转发到远程服务器,而不会将其传递到lcoal Web服务器。(https://github.com/kklis/proxy) iptables-DNAT仅转发流量,但不将其传递给本地Web服务器 iptables-TEE仅复制到本地网络中的服务器->由于数据中心的结构,服务器不在同一网络中 在stackoverflow(https://stackoverflow.com/questions/7247668/duplicate-tcp-traffic-with-a-proxy)上为问题“使用代理重复tcp流量”提供的建议替代方法均未成功。如上所述,TEE不适用于本地网络外部的远程服务器。teeproxy不再可用(https://github.com/chrislusf/tee-proxy),我们在其他地方找不到它。 我们添加了第二个IP地址(位于同一网络中)并将其分配给eth0:0(主IP地址已分配给eth0)。将此新IP或虚拟接口eth0:0与iptables TEE功能或路由组合在一起不会成功。 建议为问题“在debian squeeze上重复输入tcp流量”(在Debian squeeze上重复输入TCP流量)提供的替代方法不成功。客户每次请求/连接后,cat | nc会话(cat / tmp / prodpipe | nc 127.0.0.1 12345和cat / tmp / testpipe | nc 127.0.0.1 23456)会在没有任何通知或日志的情况下被客户端中断。Keepalive并没有改变这种情况。TCP程序包未传输到远程系统。 其他尝试用socat不同的选项(Howto:如何http://www.cyberciti.biz/faq/linux-unix-tcp-port-forwarding/,https://stackoverflow.com/questions/9024227/duplicate-input- unix-stream-to-multiple-tcp-clients-using-socat)和类似工具均未成功,因为提供的TEE功能仅会写入FS。 当然,使用谷歌搜索和搜索此“问题”或设置也不成功。 我们在这里用尽所有选项。 使用IPTABLES时,是否有方法可以禁用TEE功能的“本地网络中的服务器”的实施? 通过使用IPTABLES或路由可以实现我们的目标吗? 您是否知道为此目的测试过并且可以在这些特定情况下使用的其他工具? tee-proxy是否有其他来源(完全适合我们的要求,AFIAK)? 提前感谢您的回复。 ---------- 编辑:05.02.2014 这是python脚本,它将按照我们需要的方式起作用: import socket …

3
替代Apache基准测试?[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为服务器故障的主题。 4年前关闭。 我想要一些用于ubuntu的工具,可以用来测试服务器,可以处理多少服务器。 有什么建议么?我以前使用过Apache基准测试,但我想尝试其他方法。 (作为一个附带的问题,如果仅使用nginx,apache基准测试是否有效?)

4
在Linux / Arm下对RAM(no-ECC)进行基准测试的最佳方法是什么?
我想在定制板上测试no-ECC存储器芯片的完整性和整体性能 是否有一些在Linux下运行的工具,以便我可以同时监视系统和全局温度? 通常是否有一些没有ECC的特定测试? 编辑1: 我已经知道如何监视温度(我使用特殊的平台功能/sys/devices/platform/......../temp1_input)。 目前 : wazoox:它可以工作,但是我必须编写自己的测试 杰森·亨特利(Jason Huntley): ramspeed:不适用于手臂 流基准测试:它可以运行并且非常快,所以我来看看它是否准确且完整 memtest:我会稍后再试,因为它不能直接从linux运行 fedora的压力:我也会稍后再尝试,对我来说现在安装fedora太麻烦了 我找到了这个发行版:http : //www.stresslinux.org/sl/ 在可能尝试过诸如StressLinux,Memtest,Fedora压力之类的解决方案之后,我将继续检查在Linux下直接运行且没有太大依赖性的工具。 谢谢您的回答,我会继续调查
19 linux  memory  benchmark  arm 

1
如何在Linux内核中禁用perf子系统?
我正在运行一些基准测试。我的基准测试运行程序会监控实验之间的dmesg缓冲区,寻找可能影响性能的任何内容。今天它抛出了这个: [2015-08-17 10:20:14警告] dmesg似乎已更改!差异如下: --- 2015-08-17 09:55:00 +++ 2015-08-17 10:20:14 @@ -825,3 +825,4 @@ [3.802206] [drm]启用RC6状态:RC6打开,RC6p关闭,RC6pp关闭 [7.900533] r8169 0000:06:00.0 eth0:链接 [7.900541] IPv6:ADDRCONF(NETDEV_CHANGE):eth0:链接已准备就绪 + [236832.221937] perf中断花费的时间太长(2504> 2500),将kernel.perf_event_max_sample_rate降低为50000 经过一番搜索,我现在知道这与Linux内核中称为“ perf”的性能分析子系统有关。我认为我们不需要这个,所以我想完全禁用它。 再次搜索,发现sysctl perf_cpu_time_max_percent可以提供帮助。这里有人建议通过将其设置为0来禁用它。在这里阅读更多内容: perf_cpu_time_max_percent: 提示内核应将多少CPU时间用于处理性能采样事件。如果性能子系统被告知其采样数已超过此限制,它将降低其采样频率以尝试减少其CPU使用率。 在NMI中会进行一些性能采样。如果这些样本出乎意料地花费太长时间执行,则NMI可能会紧挨在一起堆叠在一起,以致其他任何东西都不允许执行。 0:禁用该机制。无论花费多少CPU时间,都不要监视或校正perf的采样率。 1-100:尝试将perf的采样率限制为该CPU百分比。注意:内核会计算每个样本事件的“预期”长度。这里的100表示​​预期长度的100%。即使将其设置为100,如果超过此长度,您仍可能会看到样品节流。如果您确实不关心消耗了多少CPU,则设置为0。 在我看来,这听起来像0,意味着不再检查分析采样率,但是freq子系统保持运行状态(?)。 谁能阐明如何使用freq完全禁用内核性能分析? 编辑:有人建议我尝试在没有性能的情况下构建内核,但是我什至认为这是不可能的。该选项似乎不可切换: EDIT2:经过更多阅读后,我决定可以将其设置kernel.perf_event_max_sample_rate为零。即每秒没有样本。但是,您也不能做到这一点(source): 提交02f98e3e36da106338b7c732fed516420fb20e2a 作者:纳特·彼得森(Knut Petersen) 日期:2013年9月25日星期三14:29:37 +0200 perf:将1强制为perf_event_max_sample_rate的下限 编辑3:FWIW perf_cpu_time_max_percent设置为25,这意味着内核花费了其硬件采样时间的25%以上。这对于基准测试机是不可接受的。 我现在确定将其设置perf_cpu_time_max_percent为零只会使情况恶化,因为内核将继续使用其25%以上的时间读取硬件寄存器。该错误会触发以调整采样率,从而尝试确保内核满足其配额(使用小于25%的时间作为perf)。25%仍然太高恕我直言。 如果我真的不能禁用性能,则最好的折衷办法可能是设置perf_event_max_sample_rate为1。 EDIT4:一位朋友建议我可能对的含义有误解perf_cpu_time_max_percent,因此上述说法可能不正确。值25表示内核使用了为服务性能中断保留的任意长度的25%以上。 …

6
有人看到有意义的SAS vs SATA比较/基准了吗?
我听到很多有关SATA的速度比SAS慢的信息,但我发现只有1个不错的基准。 http://blog.whitesites.com/SAS-RAID-0-VS-SCSI-RAID-0-VS-SATA-Benchmarks__633689244191943184_blog.htm 在这种情况下,SAS首先出现,直到您看到SAS驱动器为10K,SATA驱动器为7200 RPM。 有没有人看到过与同等速度的磁盘有任何好的基准/比较?有没有人看到任何现实世界的负载(数据库负载/搜索,媒体流等)?
15 sata  sas  benchmark 

5
了解此错误:apr_socket_recv:对等方重置连接(104)
因此,如果我使用apache基准测试(ab)进行一些基准测试,那么我会使用大量请求。然后有时在测试过程中出现此错误。 我什至不知道这意味着什么。那么我该如何解决呢?还是如果服务器受到的点击过多,会发生什么?问题是,如果我运行10,000次匹配,它们将完美运行。如果我再次运行它,它将达到4000并得到错误: apr_socket_recv: Connection reset by peer (104) 关于我的设置的一些信息:我让Nginx接受静态请求并处理动态请求。有问题的文件由nginx从缓存中提供,因此我想这可能与nginx如何处理请求有关? 有想法吗?

6
估计Linux中的FLOPS?
我正在寻找一个快速简单的程序来估计Linux系统上的FLOPS。我发现了HPL,但是事实证明,将其编译会很烦人。我所需要的只是FLOPS的概算,而无需花一天时间研究基准软件包和安装相关软件。是否存在这样的程序?编写一个将两个浮点数乘以一个循环的C程序是否足够?
14 linux  benchmark 

6
如何在Linux服务器上生成CPU负载
我想测试服务器上的虚假负载,我正在寻找一些会在系统上产生CPU负载的老化或基准命令行实用程序。 我希望仅能够老化CPU(无硬盘负载,网络和co),并且可以设置负载运行的时间。意思是我想要可以运行的东西:系统上的CPU负载10分钟。 有任何想法吗?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.