Questions tagged «xfs»

XFS是最初用于SGI的IRIX OS的文件系统,但现在可用于Linux。众所周知,它可以很好地处理大型文件和大型文件系统,这是少数可以处理超过16.8TB分区的Linux文件系统之一。

1
为什么我的XFS文件系统突然占用更多空间并充满稀疏文件?
我已经在各种Linux服务器上将XFS文件系统作为数据/增长分区运行了近10年。 我注意到最近运行6.2+版本的CentOS / RHEL服务器出现了一个奇怪的现象。 从EL6.0和EL6.1迁移到较新的操作系统版本后,稳定的文件系统使用变得高度可变。最初安装有EL6.2 +的系统表现出相同的行为。显示XFS分区上磁盘利用率的剧烈波动(请参见下图中的蓝线)。 之前和之后。从6.1升级到6.2是在星期六进行的。 同一系统上一季度的磁盘使用情况图,显示了上周的波动。 我开始检查文件系统中是否有大文件和失控的进程(可能是日志文件?)。我发现最大的文件报告了与du和不同的值ls。du有无--apparent-size开关运行说明了差异。 # du -skh SOD0005.TXT 29G SOD0005.TXT # du -skh --apparent-size SOD0005.TXT 21G SOD0005.TXT 使用ncdu实用工具对整个文件系统进行快速检查得出: Total disk usage: 436.8GiB Apparent size: 365.2GiB Items: 863258 文件系统中充满了稀疏文件,与先前版本的OS /内核相比,丢失了将近70GB的空间! 我仔细研究了Red Hat Bugzilla并更改日志,以查看是否有关于XFS的相同行为的报告或新公告。 娜达 升级期间,我从内核版本2.6.32-131.17.1.el6转到了2.6.32-220.23.1.el6;次要版本号无变化。 我使用该filefrag工具检查了文件碎片。XFS分区上一些最大的文件具有数千个扩展区。在xfs_fsr -v活动缓慢的情况下运行联机碎片整理有助于暂时减少磁盘使用(请参见上方第一张图表中的周三)。但是,一旦系统活动繁忙,使用率便迅速增加。 这是怎么回事

12
ZFS和XFS
我们正在考虑构建一个约16TB的存储服务器。目前,我们正在将ZFS和XFS都视为文件系统。优点和缺点是什么?我们要寻找什么?还有第三种更好的选择吗?
62 filesystems  storage  zfs  xfs 

5
如何在CentOS7上缩小/ home并添加更多空间
CentOS 7文件系统为XFS,并且resize2fs不起作用。我需要缩小/home到400G并为添加100G空间/。我该怎么办? # df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 50G 50G 341M 100% / devtmpfs 7.8G 0 7.8G 0% /dev tmpfs 7.8G 84K 7.8G 1% /dev/shm tmpfs 7.8G 778M 7.0G 10% /run tmpfs 7.8G 0 7.8G 0% /sys/fs/cgroup /dev/sda1 497M 241M 257M 49% /boot tmpfs 1.6G …

3
XFS文件系统在RHEL / CentOS 6.x中已损坏-我该怎么办?
RHEL的最新版本/ CentOS的(EL6)带来的一些有趣的变化XFS文件系统,我依赖严重了十多年。去年夏天,我花了一部分时间来追查由于文档记录不良而导致的XFS稀疏文件情况。自迁移到EL6以来,其他人则遇到了不幸的性能问题或行为不一致的情况。 XFS是我用于数据和增长分区的默认文件系统,因为它提供了比默认ext3文件系统更高的稳定性,可伸缩性和良好的性能。 2012年11月出现在EL6系统上的XFS出现问题。我注意到我的服务器即使在空闲时也显示出异常高的系统负载。在一种情况下,空载系统的平均负载平均值为3+。在其他情况下,负载会增加1+。挂载的XFS文件系统的数量似乎会影响负载增加的严重性。 系统有两个活动的XFS文件系统。升级到受影响的内核后,负载为+2。 深入研究,我在XFS邮件列表中发现了一些线程,这些线程指出xfsaild处于STAT D状态的进程的频率增加。相应的CentOS Bug Tracker和Red Hat Bugzilla条目概述了该问题的细节,并得出结论,这不是性能问题。在2.6.32-279.14.1.el6以后的内核中,报告系统负载中只有一个错误。 WTF?!? 在一次性情况下,我了解到负载报告可能并不重要。尝试使用您的NMS和成百上千的服务器进行管理!在EL6.3下的2012年11月内核2.6.32-279.14.1.el6中确定了这一点。内核2.6.32-279.19.1.el6和2.6.32-279.22.1.el6在随后的几个月(2012年12月和2013年2月)中发布,此行为没有任何变化。自从发现此问题以来,甚至还发布了新的操作系统次要版本。EL6.4已发布,现在位于内核2.6.32-358.2.1.el6上,该内核具有相同的行为。 我有一个新的系统构建队列,并且不得不解决此问题,要么在2012年11月之前的版本中锁定内核版本以用于EL6.3,要么只是不使用XFS,而是选择ext4或ZFS,这会严重影响性能。用于在顶部运行的特定自定义应用程序。有问题的应用程序严重依赖某些XFS文件系统属性来解决应用程序设计中的缺陷。 在Red Hat的付费专区知识库站点后面,出现一个条目,指出: 安装内核2.6.32-279.14.1.el6后,观察到较高的平均负载。平均负载高是由于每个XFS格式化设备的xfsaild进入D状态引起的。 当前没有解决此问题的方法。当前正在通过Bugzilla#883905进行跟踪。解决方法将已安装的内核软件包降级到低于2.6.32-279.14.1的版本。 (除了降级内核不是RHEL 6.4上的选项...) 因此,我们已经有4个多月的时间解决此问题,并且没有针对EL6.3或EL6.4 OS版本计划任何真正的修复。有一个针对EL6.5的建议修复程序和一个内核源补丁可用...但是我的问题是: 当上游维护者破坏了重要功能时,在什么时候离开操作系统提供的内核和软件包是有意义的? 红帽介绍了此错误。他们应该将修复程序合并到勘误内核中。使用企业操作系统的优势之一是它们提供了一致且可预测的平台目标。此错误在补丁程序周期内破坏了已经投入生产的系统,并降低了部署新系统的信心。虽然我可以将其中一个建议的补丁应用于源代码,但它的可伸缩性如何?随着操作系统的更改,需要保持警惕以保持更新。 什么是正确的举动? 我们知道这可能是固定的,但不是固定的。 在Red Hat生态系统中支持自己的内核有其自身的警告。 对支持资格有什么影响? 我是否应该将工作正常的EL6.3内核覆盖在新建的EL6.4服务器之上以获得适当的XFS功能? 我应该等到这个问题正式解决吗? 这说明我们对企业Linux发行周期缺乏控制是什么意思? 长期以来一直依赖XFS文件系统进行计划/设计错误吗? 编辑: 该补丁已合并到最新的CentOSPlus内核发行版中(kernel-2.6.32-358.2.1.el6.centos.plus)。我正在CentOS系统上对此进行测试,但这对基于Red Hat的服务器没有太大帮助。

1
无法在大型XFS文件系统上创建文件
我们有一台具有4 TB文件系统的Linux服务器,该服务器用于存储Subversion存储库。有很多存储库,其中一些已经使用了几年。 该磁盘最初约为1 TB,但大约一年前我们开始用尽空间,并将其增加到4 TB。现在,人们报告无法将文件检入其存储库。错误消息是No space left on device。 该磁盘大约有1.5 TB的可用空间,并且还报告有可用的inode-但是,无法在其上创建新文件。仍然可以更新旧文件,并且会间歇性地更新某些存储库,但是同一存储库在下次尝试时可能会失败。
24 linux  xfs 

2
在小型文件系统上,文件大小非常奇怪(超过600 PB)
我在XFS文件系统上有一个文件,大小约为200 GB。这是一个QCOW2映像,其中包含KVM驱动的虚拟机的虚拟磁盘。出了点问题(可能是qemu-kvm出现故障,我不确定),虚拟机崩溃了,现在我有了一个看起来像这样的文件: 191090708 -rwxr--r--. 1 root root 737571587400425984 Oct 10 10:03 973d10e0-a5e3-4a59-9f98-4b9b9f072ade 因此,它仍然占据191090708个块,但ls显示为656 PB。 而且,我还有另一个具有相同的历史记录的文件,但是在另一个文件系统上(不是XFS,而是GFS2): 410855320 -rwxr--r--. 1 root root 7493992262336241664 Dec 13 2014 ac2cb28f-09ac-4ca0-bde1-471e0c7276a0 它占用410855320块,但ls显示为约6.6 艾字节。 您认为删除这些文件安全吗?谢谢! PS定期拍摄快照真是太好了!:)我不知道如果没有他们我该怎么办。

2
新创建的XFS文件系统显示已使用78 GB
我们有一个12 TB RAID 6阵列,应该将其设置为带有XFS文件系统的单个分区。创建新文件系统时,它表示已使用78 GB,但驱动器上没有文件。 [root@i00a ~]# df -h Filesystem Size Used Avail Use% Mounted on devtmpfs 32G 0 32G 0% /dev tmpfs 32G 0 32G 0% /dev/shm tmpfs 32G 11M 32G 1% /run tmpfs 32G 0 32G 0% /sys/fs/cgroup /dev/sdb3 154G 3.9G 150G 3% / /dev/sdb2 1014M 153M 862M …
18 storage  partition  xfs  rhel8 

1
具有xfs,20个磁盘和Ceph的“大型”服务器上页面碎片的原因
任何有Linux IO系统经验的人的任何见解都会有所帮助。这是我的故事: 最近建立了一个由六个Dell PowerEdge rx720xds组成的集群,用于通过Ceph提供文件。这些机器在两个插槽上具有24个内核,并具有两个numa区域和70奇吉字节的内存。磁盘格式化为每个磁盘的RAID(否则,我们看不到直接公开磁盘的方法)。网络由IB上的mellanox infiniband IP提供(IP数据包在内核区域(而非硬件)转换为IB)。 我们将每个SAS驱动器安装如下: # cat /proc/mounts | grep osd /dev/sdm1 /var/lib/ceph/osd/ceph-90 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdj1 /var/lib/ceph/osd/ceph-87 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdu1 /var/lib/ceph/osd/ceph-99 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdd1 /var/lib/ceph/osd/ceph-82 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdk1 /var/lib/ceph/osd/ceph-88 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdl1 /var/lib/ceph/osd/ceph-89 xfs rw,noatime,attr2,inode64,noquota 0 0 …

2
处理损坏的XFS文件系统的正确方法
最近,我因电源故障而使XFS文件系统损坏。(CentOS 7系统)。系统无法正常启动。 我从应急CD引导并尝试运行xfs_repair,它告诉我安装该分区以处理日志。 我安装了该分区,并做了一个ls验证以确认它似乎在那里。我卸载了分区,然后xfs_repair再次尝试并得到了相同的消息。 在这种情况下我该怎么办?我的救援CD(系统救援CD,版本4.7.1)有什么问题吗?我应该使用其他程序吗? 我最终只是简单地从备份还原了系统(在这种情况下,这是快速而又容易的),但是我想知道将来要做什么。

2
16 TB数据磁盘上是否需要GPT?
我/dev/sdb用硬件RAID 制成了一个16 TB的磁盘,我很想在其中直接/dev/sdb制作XFS 而无需进行分区。将来我需要将其扩展到两倍大小。 硬件是HP ProLiant DL380 Gen 9,正面有12个SAS磁盘托盘。 不创建分区的一个优点是不需要重新启动,但是> 2 TB磁盘上的内容是否有所不同? 我是否需要GPT,或者在没有RAID的情况下扩展RAID阵列和XFS时是否会遇到麻烦?
17 linux  raid  hp  xfs  gpt 

2
Linux上可用于生产的,高度可靠的文件系统:ext4 ext3 XFS或JFS(或ZFS)?
我在这个主题上看到的最后一个真实问题是大约两年前的(ext4已准备好用于生产)。 在此期间,ext4有何改进? XFS,JFS和ext3是备用的可靠选择。我仅在最近的Ubuntu测试/开发环境中使用过ext4,并且没有发现任何问题-但它们还是使用率低的工作站,VM和一次性培训环境。 从速度和可靠性的角度来看,ext4与(尤其是)XFS和JFS相比已经成熟了一些,如何将ext4堆叠起来呢? 是ZFS一个可行的选择(看到,因为它是一个导火索 模块,可能不适用于Linux -至今)?
16 filesystems  ext3  ext4  xfs  jfs 

2
验证分区是否在具有RAID和LVM的Linux中对齐
有谁知道验证LVM和md RAID之上的XFS文件系统是否正确对齐4096字节又称为“高级格式”扇区磁盘的阵列的步骤? 一些参考是: http : //www.ibm.com/developerworks/linux/library/l-4kb-sector-disks/index.html http://thunk.org/tytso/blog/2009/02/20/aligning -文件系统到ssds-擦除块大小/ 这个问题的内容也与Stack Overflow的新NAS有关:http : //blog.serverfault.com/post/798854017/the-theoretical-and-real-performance-of-raid-10
15 linux  raid  partition  mdadm  xfs 

2
XFS分区上的HP DL380p Gen8(p420i控制器)I / O异常
在使用XFS在RAID 1 + 0之上的LVM和6个磁盘之上的DL380p gen8服务器上,相同的工作负载导致RHEL 6上的磁盘写入量是RHEL 5的十倍。 请注意,我并不是在尽可能地优化co6系统,而是在理解为什么co6的行为如此巨大地不同,并加以解决。 vmstat / iostat 我们有一个使用MySQL 5.5的MySQL复制设置。在使用RHEL 6作为OS的gen8服务器上的MySQL从服务器性能不佳,对vmstat和iostat的检查表明,这些服务器的页面输出活动是其十倍,而磁盘子系统的写入量是其十倍。blktrace显示这些写入不是由mysql启动的,而是由内核启动的。 Centos 5: [dkaarsemaker@co5 ~]$ vmstat 1 procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------ r b swpd free buff cache si so bi bo in cs us sy id wa st 3 0 12 252668 102684 10816864 0 …

2
在单个Linux服务器上运行不同文件系统的性能影响
这本书“的HBase权威指南”指出, 不建议在单个服务器上安装不同的文件系统。这可能对性能产生不利影响,因为内核可能必须拆分缓冲区高速缓存以支持不同的文件系统。据报道,对于某些操作系统,这可能会造成毁灭性的性能影响。 这真的适用于Linux吗?我从未见过缓冲区缓存大于300 MB,并且大多数现代服务器都具有GB的RAM,因此在不同文件系统之间分配缓冲区缓存应该不是问题。我还有其他东西吗?

1
易于使用XFS扩展Linux软件RAID 5。最佳做法?
我将Ubuntu计算机用作使用Samba共享的Windows / Linux / Mac客户端的文件服务器。我需要通过添加更多硬盘来轻松扩展,而不必来回移动任何数据。 到目前为止,这就是我所做的。我已经成功添加了第四个硬盘。现在,很高兴知道这应该怎么做?我做错了还是可以做得更好? 创建初始的3驱动器阵列 我从三个空驱动器开始:/ dev / sdb,/ dev / sdc和/ dev / sdd。 首先,我为所有驱动器创建了空分区: $ fdisk /dev/sdX n # Create a new partition p # Primary 1 # First partition [enter] # Starting point to first sector (default) [enter] # Ending point to last sector (default) …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.