Questions tagged «performance»

有关服务器硬件和软件性能或网络性能的问题。

6
准确趋势化随机I / O性能以进行容量规划
在我工作的地方,我们有许多“大型”服务器,这些服务器用于使用Xen Hypervisor托管许多虚拟机。它们通常配置有32GB RAM,双Quad核心进程和具有I / O容量的快速磁盘。 我们正处于一个时机上,现有的硬件配置已经步入正轨,现在该是时候外出采购更大,更快,更漂亮的新硬件了。 如上所述,现有工具包已部署了32GB RAM,这实际上限制了我们可以部署到主机的VM数量。 但是,在研究较新的硬件时,很明显,您可以在一台计算机上获得越来越多的RAM,而在单个机箱中可以获得64、72甚至96GB的内存。显然,这将使我们能够将更多计算机添加到给定主机,这始终是一个胜利。到目前为止完成的分析表明,限制因素现在将转移到磁盘子系统。 现在的问题是,试图了解我们的位置...通过这种用法,我们知道我们不受I / O带宽的限制,更不用说随机I的数量了。可以完成的/ O操作。.我们有一个轶事,那就是一旦达到这一点,iowait就将飞上蓝天,整个机器的性能将受到影响。 现在,这是我要问的问题的症结所在,有人知道一种方法来准确地跟踪/趋势现有I / O性能,特别是与完成的随机I / O操作数有关吗? 我真正想获取的指标是“此配置可以成功处理X个随机I / O请求,并且我们目前(平均)正在以Y个操作的峰值执行Y个操作”。 提前致谢!

6
使用Prelink是否有意义?
在使用各种Linux系统这些年来,我已经得到了到使用的习惯中预链接仪式来加速应用加载时间。 但是,每次重新安装软件包时,运行预链接的好处都会被抵消,因为它需要重新链接其所有依赖项及其依赖项。 这种预链接可能会导致多种问题,其中之一就是二进制MD5失效,这对于比较MD5与上游修订版或使用MD5来确定二进制是否已更改并因此不希望在删除软件包时进行清理的问题引起问题。 。 最近,计算机变得越来越快,并且预链接收益的收益现在几乎不显着。 使用预链接仍然是一个合理的概念,还是可以随便丢掉它并留在过去的时代?

13
后缀性能
在ubuntu上运行postfix,每天发送大量邮件(约100万条消息)。负载极高,但就CPU和内存负载而言却不高。任何人都处于类似情况并且知道如何消除瓶颈? 此服务器上的所有邮件都出站。 我必须假设瓶颈是磁盘。 只是更新,这是iostat的样子: avg-cpu: %user %nice %system %iowait %steal %idle 0.00 0.00 0.12 99.88 0.00 0.00 Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util sda 0.00 12.38 0.00 2.48 0.00 118.81 48.00 0.00 0.00 0.00 0.00 sdb 1.49 22.28 72.28 42.57 629.70 1041.58 14.55 135.56 …


10
子目录的数量如何影响Linux上的读写性能?
我在Linux CentOS服务器上有一个EXT3格式化的驱动器。这是一个Web应用程序数据驱动器,其中包含每个用户帐户(有25,000个用户)的目录。每个文件夹都包含该用户已上传的文件。总体而言,该驱动器上大约有250GB的数据。 用所有这些目录构造驱动器是否会影响驱动器的读写性能?它会影响我不了解的其他性能方面吗? 以这种方式构造事物有天生的错误或坏处吗?也许只是错误选择文件系统? 我最近尝试合并两个数据驱动器,并意识到EXT3限于32,000个子目录。这让我想知道为什么。考虑到每个文件都有一个唯一的ID(对应于数据库中的ID),我以这种方式构建它似乎很愚蠢。las ...



4
如何设置shmall,shmmax,shmmin等…一般而言和针对PostgreSQL
我使用了PostgreSQL的文档来设置它,例如以下配置: >>> cat /proc/meminfo MemTotal: 16345480 kB MemFree: 1770128 kB Buffers: 382184 kB Cached: 10432632 kB SwapCached: 0 kB Active: 9228324 kB Inactive: 4621264 kB Active(anon): 7019996 kB Inactive(anon): 548528 kB Active(file): 2208328 kB Inactive(file): 4072736 kB Unevictable: 0 kB Mlocked: 0 kB SwapTotal: 0 kB SwapFree: 0 kB Dirty: …

2
MySQL在非常简单的SELECT查询上极其慢
我们有一个在虚拟机上运行的简单Web应用程序,它使用InnoDB引擎将其数据保存在MySQL 5.5数据库中。大约三年来,一切工作正常,但突然变得非常缓慢。 例如,我有一个非常简单的表,其中包含地址: CREATE TABLE `addresses` ( `address_id` int(11) NOT NULL AUTO_INCREMENT, `name` varchar(64) CHARACTER SET latin1 NOT NULL, `firstname` varchar(64) CHARACTER SET latin1 NOT NULL, `street` varchar(64) CHARACTER SET latin1 NOT NULL, `housenumber` varchar(16) CHARACTER SET latin1 NOT NULL, `zip` varchar(5) CHARACTER SET latin1 NOT NULL, `city` varchar(64) CHARACTER …
10 linux  mysql  performance  io 

4
在Windows上,对SMB网络共享的小写操作速度较慢,在CIFS Linux挂载上速度较快
在执行小写操作时,我一直在努力解决SMB / CIFS共享的性能问题。 首先,让我描述一下我当前的网络设置: 服务器 Synology DS215j(启用SMB3支持) 客户端(同一台计算机双启动的有线Gig-E) Ubuntu 14.04.5 LTS,Trusty Tahr Windows 8.1 smb.conf [global] printcap name=cups winbind enum groups=yes include=/var/tmp/nginx/smb.netbios.aliases.conf socket options=TCP_NODELAY IPTOS_LOWDELAY SO_RCVBUF=65536 SO_SNDBUF=65536 security=user local master=no realm=* passdb backend=smbpasswd printing=cups max protocol=SMB3 winbind enum users=yes load printers=yes workgroup=WORKGROUP 我目前正在使用以下用C ++编写的程序(在GitHub上,在这里)测试小型写入性能: #include <iostream> #include <fstream> #include <sstream> …

2
向raid 0添加驱动器堆会提高性能吗?
向raid 0添加驱动器堆会提高性能吗?我知道带区团队中的两个驱动器通常比单个驱动器快,但是我会注意到,带区团队中的2个驱动器和8个驱动器之间的性能差异吗?在您真的没有任何其他好处之前,对RAID中的驱动器数量有一般限制吗? 这里也提出了类似的问题 将更多驱动器添加到RAID 10阵列是否可以提高性能? 但是我真的是在问是否将多个驱动器添加到RAID 0是否比仅添加说2或4有改进?性能是否会持续提高?
10 raid  performance  ssd 

2
为什么我的RAID1读取访问速度比写入访问速度慢?
我已经做了一些简单的性能测试,看来从RAID1读取要比写入慢: root@dss0:~# for i in 1 2 3; do dd if=/dev/zero of=/dev/sda bs=1048576 count=131072; done 137438953472 bytes (137 GB) copied, 192.349 s, 715 MB/s 137438953472 bytes (137 GB) copied, 192.851 s, 713 MB/s 137438953472 bytes (137 GB) copied, 193.026 s, 712 MB/s root@dss0:~# for i in 1 2 3; do …

3
postgres stats收集器进程生成的I / O过多
我将XenServer与具有本地postgres数据库的多个虚拟机一起使用。即使所有应用程序都未使用且数据库处于空闲状态,每个vm也会导致持续的存储网络流量,从而降低iscsi存储设备的性能。 运行后,iotop我注意到postgres stats收集器处理过程不断以大约2 MByte / s的速度写入磁盘。 然后,我通过编辑禁止收集统计信息/etc/postgresql/8.4/main/postgresql.conf: #------------------------------------------------------------------------------ # RUNTIME STATISTICS #------------------------------------------------------------------------------ # - Query/Index Statistics Collector - track_activities = off track_counts = off ... 如http://www.postgresql.org/docs/8.4/static/runtime-config-statistics.htm中的建议。 这消除了连续写入,但是关闭统计信息跟踪是否有任何缺点? 还是应该将pg_stat_tmp目录放置在ramdisk上,以避免磁盘/网络流量? 该系统是最新的Debian 6.0.7(压缩版),具有postgres 8.4和约20个数据库(约50个表),总转储文件大小小于100 MB。


3
缓慢的文件系统访问
我正在尝试诊断我所照顾的服务器上的文件系统问题。它已经进行了相当长的时间,而我对于可以尝试的方法已经没有足够的想法了。这很浓。 服务器本身是Dell Poweredge T310。它具有4个SAS硬盘驱动器,在RAID5上进行了配置,并且正在运行Citrix XenServer 5.6。VM是(相对)较旧的Debian 5.0.6安装。它具有4个内核和4Gb的RAM。它有3卷。系统的10Gb卷(ext3),数据的980Gb卷(xfs)(约94%已满)和数据的另外200Gb卷(xfs)(约13%已满)。 现在这很奇怪。对980Gb卷的读/写访问确实很慢。如果幸运的话,我可能会得到5Mb / s的速度。起初,我认为这实际上是系统中或系统管理程序级别的磁盘访问,但是排除了完全排除的麻烦,因为同一主机上的其他VM运行得很好(数百个Mb / s磁盘读写访问)。因此,我开始针对此特定VM。我开始以为它是XFS,但是为了证明这一点,我不会尝试更改980Gb驱动器上的文件系统,因为那里有数以亿计的文件。因此,我配置了200Gb驱动器,并进行了相同的读/写测试(基本上是dd),并获得了数百Mb / sr / w的访问权限。这样就排除了VM,硬件和文件系统类型。 /var/log/kern.log中也有很多这样的内容。(抱歉,这很长) Sep 4 10:16:59 uriel kernel: [32571790.564689] httpd: page allocation failure. order:5, mode:0x4020 Sep 4 10:16:59 uriel kernel: [32571790.564693] Pid: 7318, comm: httpd Not tainted 2.6.32-4-686-bigmem #1 Sep 4 10:16:59 uriel kernel: [32571790.564696] Call …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.