Questions tagged «performance»

有关服务器硬件和软件性能或网络性能的问题。


2
如何确定Azure App Service中100%CPU使用率的原因?
我在Azure应用程序服务计划中有五个应用程序,同一应用程序的所有不同副本适用于不同的客户端。这是带有SQL数据库的ASP.NET MVC应用程序。 今天早上,我醒来了一些缓慢且无响应的网站,有时会导致503错误。在检查App Service Plan的CPU /内存指标后,我发现CPU固定为100%: 各个站点的CPU时间图表显示它们全部同时关闭,尽管有些情况比其他情况差: 我尝试通过执行“高级应用程序重新启动”来解决此问题,但刀片无法加载-我认为是因为它试图从无法响应的服务器获取信息。 最后,我尝试逐个停止每个站点,这使CPU恢复为零,然后再次将其重新启动,这似乎已经解决了问题,但是现在其中一些已经开始恢复。 几周前,我遇到了类似的问题,并认为我的App Plan太大了,所以从S1升级到S2,直到今天还不错。 我对如何弄清楚造成CPU饥饿行为的原因一无所知。谁能指出我正确诊断该病的正确方向?

1
包含大量文件的NTFS驱动器上的性能缓慢
我正在查看此设置: Windows Server 2012 1 TB NTFS驱动器,4 KB群集,约90%的已满容量 约10,000万个文件夹中存储的约1000万个文件=约1,000个文件/文件夹 大部分文件小于50 KB 磁盘阵列上托管的虚拟驱动器 当应用程序访问随机文件夹中存储的文件时,读取每个文件需要60-100毫秒。使用测试工具,似乎在打开文件时发生延迟。读取数据仅需花费一小部分时间。 总之,这意味着读取50个文件很容易需要3-4秒,这比预期的要多得多。批处理是写的,因此此处性能不是问题。 我已经遵循关于SO和SF的建议来得出这些数字。 使用文件夹减少每个文件夹的文件数量(在文件系统中存储一百万个图像) 运行contig对文件夹和文件进行碎片整理(https://stackoverflow.com/a/291292/1059776) 8.3名称和上次访问时间被禁用(配置NTFS文件系统以提高性能) 读取时间该怎么办? 认为每个文件60到100毫秒是可以的(不是吗?) 有什么想法可以改善设置吗? 是否有低级监视工具可以告诉您确切花费了什么时间? 更新 如注释中所述,系统运行Symantec Endpoint Protection。但是,禁用它不会更改读取时间。 PerfMon每次读取的时间为10-20毫秒。这意味着任何文件读取都需要约6个I / O读取操作,对吗?这是MFT查找和ACL检查吗? MFT的大小约为8.5 GB,比主内存大。

8
小文件的NFS传输性能较慢
我在HP ML370 G5,智能阵列P400,使用RAID 1 + 0组合的SAS磁盘上使用Openfiler 2.3。 我使用Openfiler的基于Web的配置从ext3分区设置了NFS共享,然后成功从另一台主机挂载了共享。两个主机都使用专用的千兆链路连接。 使用简单基准dd: $ dd if=/dev/zero of=outfile bs=1000 count=2000000 2000000+0 records in 2000000+0 records out 2000000000 bytes (2.0 GB) copied, 34.4737 s, 58.0 MB/s 我看到它可以达到中等的传输速度(58.0 MB / s)。 但是,如果我复制包含许多小文件的目录(.php和.jpg总规模约300 MB的,每个文件围绕1-4 KB),该cp过程结束在10分钟左右。 NFS是否不适合上述情况下的小文件传输?还是有一些必须调整的参数?
12 performance  nfs 

2
RAID级别对IOPS的影响[关闭]
已关闭。这个问题需要更加集中。它当前不接受答案。 想改善这个问题吗?更新问题,使其仅通过编辑此帖子来关注一个问题。 2年前关闭。 关于IOPS,我在网络上看到了一些资料,这些数据表明给定数量的磁盘的IOPS就是单个磁盘的IOPS乘以磁盘数。 如果我对IOPS的理解是正确的(我完全不确定),那么我会以为实际情况将取决于RAID级别,其中包括许多其他因素。使用RAID 1/10,所有数据都在至少两个磁盘上重复,从而减少了某些IO模式在特定磁盘上的争用。但是,在RAID 0/5/6等条带化RAID级别中,数据是分布式的而不是重复的,这意味着连续的读取请求可能针对同一主轴,从而导致在上一个IO完成时阻​​塞。写作更有争议。 我还要补充一点,我感谢由于各种优化和其他因素而使现实变得更加复杂。我的问题实际上只是在从根本上了解我对IOPS含义的理解是否正确。我认为IOPS甚至可能会受到RAID级别影响的断言可能是对该概念的基本误解。

2
为什么ZFS比ext4和btrfs慢得多?
问题 我最近安装了一个新磁盘,并在其上创建了一个zpool: /# zpool create morez /dev/sdb 使用一段时间后,我注意到它非常慢: /morez# fio --name rw --rw rw --size 10G read: IOPS=19.6k, BW=76.6MiB/s (80.3MB/s)(5120MiB/66834msec) write: IOPS=19.6k, BW=76.6MiB/s (80.3MB/s)(5120MiB/66834msec) 该测试与我的实际用例非常相似。我正在从磁盘读取适量(〜10k)的图像(每个〜2 MiB)。当磁盘几乎为空时,它们一次全部写入,因此我不希望它们碎片化。 为了进行比较,我测试了ext4: /# gdisk /dev/sdb ... /# mkfs.ext4 -f /dev/sdb1 && mount /dev/sdb1 /mnt && cd /mnt /mnt# fio --name rw --rw rw --size 10G …

1
IIS服务器可以有太多的内存吗?
我似乎有些声称Exchange(link)和Elasticsearch(link)可能遭受“太多”内存的困扰。我还在旧书中读到一个模糊的暗示,即IIS可能也是如此: 至少在一定程度上,[RAM]更好。如果您有太多的RAM,IIS文件缓存将无法完全使用它。因此,对于标准Web服务器,最好不要超过2GB到3GB RAM。 任何人都可以确认或驳斥IIS服务器可能具有过多RAM的说法吗? 如果声明是正确的,那么是否可以对配置进行微调? 我问的原因是因为我在生产环境与测试环境中看到一个可能的性能问题,在该环境中,即使在重负载下,使用16GB RAM的测试环境似乎也比具有64GB产品的性能更好。我在Windows Server 2012 R2 64位上运行IIS 8。 (我能找到的唯一ServerFault问题没有专门解决IIS。)

1
为什么FileZilla比PSFTP快得多?
我正在使用FileZilla 3.10.3和PSFTP 0.63(PuTTY)。谁能帮我弄清楚为什么两个客户端之间获得的吞吐量如此巨大的差异?这不仅是SFTP协议的缺点,因为FileZilla(和WinSCP)的速度要快得多!提前致谢。 当使用FileZilla通过某种协议连接到同一服务器时,我得到了“良好”的吞吐量。一个大文件约1.2MBPS。这是日志: Response: fzSftp started, protocol_version=2 Command: open "mecorp@ftp.themcorp.com" 22 Trace: Looking up host "ftp.themcorp.com" Trace: Connecting to 222.22.111.33 port 22 Trace: We claim version: SSH-2.0-PuTTY_Local:_Mar_29_2015_12:25:15 Trace: Server version: SSH-2.0-9.99 sshlib: 8.1.0.0 Trace: Using SSH protocol version 2 Trace: Doing Diffie-Hellman group exchange Trace: Doing Diffie-Hellman key exchange …

2
300Mbit(14%)处的UDP极端丢包,但不重传的TCP> 800Mbit
我有一个Linux盒子用作iperf3客户端,测试了2个配备Broadcom BCM5721、1Gb适配器(2个端口,但只有1个用于测试)的配置相同的Windows 2012 R2服务器盒。所有机器都通过一个1Gb交换机连接。 以例如300Mbit测试UDP iperf3 -uZVc 192.168.30.161 -b300m -t5 --get-server-output -l8192 导致丢失所有已发送数据包的14%(对于具有完全相同硬件的其他服务器盒,但是使用较旧的NIC驱动程序,丢失大约为2%),即使丢失50Mbit也会发生丢失,尽管严重程度较低。使用等效设置的TCP性能: iperf3 -ZVc 192.168.30.161 -t5 --get-server-output -l8192 产生800Mbit以北的传输速度,没有报告的重新传输。 始终使用以下选项启动服务器: iperf3 -sB192.168.30.161 谁该怪? Linux客户端盒(硬件?驱动程序?设置?)? 编辑:我只是将测试从一个Windows服务器盒运行到另一个,而300Mbit的UDP数据包丢失甚至更高,为22% Windows服务器框(硬件?驱动程序?设置?)? 连接所有测试机器的(单个)开关? 电缆? 编辑: 现在,我尝试了另一个方向:Windows-> Linux。结果:数据包丢失始终为0,而吞吐量最大达到大约 840Mbit -l8192,即分段的IP数据包 250MB,用于无碎片的-l1472IP数据包 我想流量控制会限制吞吐量,并防止数据包丢失。尤其是后者,无碎片的数据远不及TCP吞吐量(无碎片的TCP产生的数据与碎片TCP相似),但是在数据包丢失方面,它相对于Linux-> Windows而言是无限巨大的改进。 以及如何找出? 我确实遵循了服务器上驱动程序设置的常规建议以最大化性能,并尝试启用/禁用/最大化/最小化/更改 中断适度 流量控制 接收缓冲区 的RSS 局域网唤醒 所有卸载功能均已启用。 编辑我也尝试启用/禁用 以太网@线速 各种卸载功能 优先级和VLAN 损失率相近。 …

2
IIS中未使用的应用程序池会影响性能吗?
由于我们架构的重大更新,我们现在在IIS下拥有一些未使用的应用程序池(没有映射到它们的网站)。 我了解删除它们只是为了提高可读性是一个好主意,但是我的问题更多是关于性能的含义:拥有这些未使用的应用程序池是否对内存,CPU,IIS请求处理速度或任何其他性能指标有影响? 据我所知,没有网站的应用程序池不会创建工作进程,因此我怀疑性能没有差异,但是我想确保自己没有遗漏任何东西。

3
如何使用数百万个硬链接来镜像文件系统?
目前,我们面临一个大问题:我们需要为一个客户镜像文件系统。那通常不是真正的问题,但是这里是: 在此文件系统上,存在一个包含数百万个硬链接的文件夹(是!百万!)。rsync建立档案清单需要4天以上的时间。 我们使用以下rsync选项: rsync -Havz --progress serverA:/data/cms /data/ 有谁知道如何加快此rsync或使用替代方法?我们无法使用,dd因为目标磁盘小于源磁盘。 更新: 作为原始文件系统,ext3我们将尝试dump和restore。我会告诉你的

3
使用哪种KVM磁盘类型?
我正在设置一些KVM虚拟客户机,并在讨论要使用哪种磁盘类型。我一直无法在网上找到一个很好的资源,每个资源都有各自的优缺点。 您能帮我创建不同磁盘类型的列表以及每种磁盘的优缺点吗?以下是我了解的磁盘类型: 原始图像 qcow2 专用分区(例如,在LVM中) 我对这些条件感到好奇: 易于设置(创建每种类型有多容易) 性能 易于克隆 易于扩展(变得更大,因此虚拟客户机具有更多磁盘空间) 特定于该磁盘类型的功能 轻松备份 迁移到其他主机 你能帮我评估一下我的选择吗?


4
WAN链接性能测试的方法
在相距约200英里的位置之间,我们有一对新的路由多样的1Gbps以太网链路。“客户端”是一台功能强大的新型计算机(HP DL380 G6,双E56xx Xeons,48GB DDR3,一对300GB 10krpm SAS磁盘R1,W2K8R2-x64),“服务器”也是一台足够不错的计算机(HP BL460c G6 ,双E55xx Xeons,72GB,R1对146GB 10krpm SAS磁盘,双端口Emulex 4Gbps FC HBA(链接到双Cisco MDS9509s),然后连接到带有128 x 450GB 15krpm FC磁盘的专用HP EVA 8400(RHEL 5.3-x64)。 使用客户端的SFTP,使用大型(> 2GB)文件只能看到大约40Kbps的吞吐量。我们已经执行了服务器到“其他本地服务器”的测试,并通过本地交换机(Cat 6509s)看到了大约500Mbps的传输速度,我们将在客户端进行相同的操作,但是大约需要一天的时间。 您将使用什么其他测试方法向链接提供商证明问题出在哪里?

5
EC2上的读取访问速度更快;本地驱动器还是EBS?
EC2实例上的读取访问速度更快;“本地”驱动器还是附加的EBS卷? 我有一些数据需要保留,因此已将其放在EBS卷上。我正在使用OpenSolaris,因此该卷已作为ZFS池附加。但是,我有大量未使用的EC2磁盘空间,因此我正在考虑将其重新用作ZFS缓存卷,但是如果磁盘访问的速度慢于此,我就不想这样做。 EBS的数量,因为它可能会产生不利影响。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.