Questions tagged «xfs»

XFS是最初用于SGI的IRIX OS的文件系统,但现在可用于Linux。众所周知,它可以很好地处理大型文件和大型文件系统,这是少数可以处理超过16.8TB分区的Linux文件系统之一。

1
如何缩小XFS文件系统?
我有一个具有一些可用空间的xfs文件系统。我可以收缩吗?我知道xfs_growfs。并且有resize2fs和resize_reiserfs。 附带问题:对于批量长期文件存储,xfs是否不是一个好的文件系统选择?
13 filesystems  xfs 

2
Inode表随时间急剧缩小,从而导致rsync / inode问题
我们设置了一个Linux(在Amazon AWS上,它是一个类似CentOS的系统,尽管我们不确定是否对其进行了自定义),将系统具有4TB存储作为LVM上的XFS卷(最终用于通过NFS4进行服务),但是尚未使用),并且我们正在使用rsync将文件从我们生产的NFS服务器同步到XFS卷(即,从NFS上的源rsync到本地安装的基于XFS的LVM卷)。但是,我们观察到,在中间的某个时刻,rsync开始变得越来越迟钝(吞吐量急剧下降),并且平均负载和内存消耗都大大增加了(并且在iowait中CPU所占的比例非常大)。最终,我至少在过去的24小时内重新启动了XFS系统,并且该系统显然恢复了正常运行,并且rsync性能更加正常。 我们检查了munin监视图,没有发现任何明显的问题,但是我们发现“ Inode表大小”和“打开inode”度量标准(检查了munin插件实现,该实现指向从/ proc / sys /中读取的值fs / inode-nr)随时间持续下降。在我们观察到rsync陷入僵局之前不久,我们观察到两个指标都从数十万降到了几千(我们的非XFS服务器大部分时间都保持在大约50万,并且在长期内没有任何单调下降的趋势) ),我们观察到了来自内核的日志,如下所示: ip-XX-XXX-XXX-XXX登录:[395850.680006] hrtimer:中断花费了20000573 ns 9月18日17:19:58 ip-XX-XXX-XXX-XXX内核:[395850.680006] hrtimer:中断花费了20000573 ns [400921.660046]信息:任务rsync:7919被阻止超过120秒。 [400921.660066]“回显0> / proc / sys / kernel / hung_task_timeout_secs”禁用此消息。 [400921.660077] rsync D ffff880002fe4240 0 7919 7918 0x00000000 [400921.660093] ffff8800683e5638 0000000000000282 ffff880000000000 0000000000014240 [400921.660131] ffff8800683e5fd8 0000000000014240 ffff8800683e5fd8 ffff88000726da40 [400921.660153] 0000000000014240 0000000000014240 ffff8800683e5fd8 …
12 linux  rsync  xfs 

2
CentOS 6比CentOS 5做更多的IO
我正在对两个相同服务器上的应用程序进行基准测试,一个是Centos 5.8,另一个是Centos 6.2。我的应用程序在Centos 6.2机器上的运行速度要慢得多(50%或更少)。 在尝试诊断问题时,我在整个基准测试运行期间跟踪CPU,RAM和IO。我看到,使用iostat进行测量,Centos 6.2盒上的磁盘读取量明显更高。 两个系统都在运行基准测试的XFS上运行。两者都是带有512MB高速缓存RAID控制器的HP服务器,并带有运行RAID 10的8 x 300GB SAS。 这是每个xfs_info的输出: centos5 meta-data=/dev/cciss/c0d0p5 isize=256 agcount=32, agsize=8034208 blks = sectsz=512 attr=0 data = bsize=4096 blocks=257094144, imaxpct=25 = sunit=32 swidth=128 blks, unwritten=1 naming =version 2 bsize=4096 log =internal bsize=4096 blocks=32768, version=1 = sectsz=512 sunit=0 blks, lazy-count=0 realtime =none extsz=4096 blocks=0, rtextents=0 …

2
向SLES 10服务器添加60TB存储
我必须向SLES 10服务器添加一些存档\临时存储。要求是呈现相当大的卷(每个卷大约9-20TB,总共大约60TB),用于存储包含大图像文件(大部分为150Meg Tiff)的存档数据(从字面上看,这是针对库的)。和大型的tarball。数据将绝对偏向于读取IO,当然> 95%,甚至可能超过99%。 存储设备已经购买-戴尔MD3000 SAS阵列菊花链与2个MD1000组成,这些MD1000完全装有2TB 7200 RPM SATA驱动器,总共45个驱动器。阵列堆栈使用两个双端口外部SAS适配器连接,即堆栈有4条路径。 我的意图是将它们配置为位于4个RAID组上的4个卷的集合,每个阵列一个热备用。所有组将是具有7个或14个驱动器的RAID 6,并且每个RAID组将显示为使用该组中所有容量的单个LUN。在SLES方面,这些文件需要格式化为XFS卷。 我对SLES(和Linux)的经验有限,我正在寻找有关此的一些建议,特别是: 在SLES 10下配置此大小的XFS卷时,是否有任何特定的注意事项,例如,根据IO配置文件,默认设置是否可以使用? 初始化\分区\格式化这些文件的最佳方法是什么?我使用Parted来设置磁盘标签,并使用YAST分区管理器(接受所有默认设置)来创建和格式化XFS卷以进行初始测试。 如何设置多路径?当我显示初始测试卷时,它显示为四个单独的设备(/ dev / sdl,/ dev / sdm,/ dev / sdn和/ dev / sdn)。我要如何将其作为单个卷使用? 在我的初始测试中,我发现现有EMC Clariion SAN卷的传输速率约为30Meg / sec。这比我预期的要低很多,即使考虑到RAID 6的写入损失,我也希望看到70-100Meg / sec的速度。 如何判断一切是否正常-我应该在哪里查找错误\警告等?例如,YAST分区编辑器需要很长时间才能启动,我想了解原因。 您会对此分区进行不同的分区和/或使用不同的文件系统吗?如果是,为什么? 该服务器为Dell 2950-我尚未查看详细规格,但顶部显示利用率最多徘徊在低个位数。

2
硬件RAID上的lvm上的xfs:参数正确吗?
我在硬件RAID6中有10个磁盘,每个磁盘有8 TB(因此,有8个数据磁盘+ 2个奇偶校验)。在回答了一个非常类似的问题之后,我希望可以自动检测所有必需的参数。但是,在最后创建XFS文件系统时,我得到了 # mkfs.xfs /dev/vgdata/lvscratch meta-data=/dev/vgdata/lvscratch isize=256 agcount=40, agsize=268435455 blks = sectsz=4096 attr=2, projid32bit=1 = crc=0 finobt=0 data = bsize=4096 blocks=10737418200, imaxpct=5 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0 ftype=0 log =internal log bsize=4096 blocks=521728, version=2 = sectsz=4096 sunit=1 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 看起来好像没有使用条带化。由于我在不同站点上发现的术语不同(条带大小,条带大小,条带块等等),我想问一下我是否正确设置了手动参数。 …
10 raid  lvm  xfs 

1
以64kb的块大小从XFS中获取文件
我一直在执行任务,以从我以前使用过RAID 1的2个运行良好,未损坏,未加密的NAS驱动器之一中恢复文件。 )使用Promise Fasttrack假RAID控制器。 信息非常匮乏,因此对于处于相同情况的Google员工,以下是有关此NAS的一些事实: RAID控制器:Promise FastTrack(FakeRaid) 卷系统:LVM2 文件系统:具有64kb块大小的XFS(65536字节) Arch:800MHz AMCC PowerPC处理器,256MB RAM(感谢Matthew的研究) 执行此操作时,我只有Windows 10和MacOS计算机,但没有找到能够在XVM 2卷中挂载XFS的软件(有1个例外,下面对此进行了详细介绍)。我必须取出旧的上网本Acer Aspire One,并在上面安装uppy linux(特别是lxpup风格)。 在小狗linux上,我设法使用名为的工具挂载了此文件系统dmraid。该工具可以挂载pdc卷,这是Promise FastTrack的ID。一旦我设法跳过安装它的障碍,就可以访问实际的XFS文件系统,但令我沮丧的是,它的大小为64kb。 在这里,我开始搜索“读取xfs 64kb块大小”之类的东西,却一无所获。只有几个回答说:“除非您修补内核,否则Linux无法读取大于4kb的块大小”。我不知道该如何修补内核,而我对此感到困惑,因为没有任何模拟可以允许这样做。 我在无法在Win / Mac上读取此分区的应用程序中提到1个例外。那个例外是ufsexplorer。它是一款售价100美元的应用,能够无缝显示文件。我复制了一些文件以证明其有效,但是试用版仅允许复制微小文件。 我拒绝相信没有任何一种免费的开源工具,其复杂程度无法帮助我阅读64kb xfs。 我的问题是:有人知道这样的工具吗?非常感谢您提供有关如何使用一个或多个工具,内核修补程序或其他工具(免费)获取数据的任何特定说明。 还有一点:我非常希望不必为这些驱动器创建本地映像(除非这是唯一的方法)。毕竟是2TB的数据,我可能没有那么多空间。 PS:如果我可以在Acer上安装一个已知的linux,它可以读取64kb xfs,那也是一个可行的解决方案。 更新1:我刚刚了解了https://www.cgsecurity.org/wiki/TestDisk。可能值得一试。我有时间尝试后会回报。 更新2:TestDisk似乎可以识别XFS分区的存在,但是我不确定如何从那里进行格式化。我没有找到提取文件的方法,因此我暂时放弃了该文件,并尝试在Matthew的答案中使用qemu方法。

2
CEPH的原始空间使用量
我无法理解ceph原始空间的使用情况。 我在7台服务器上有14个HDD(14个OSD),每个HDD 3TB〜总共42TB原始空间。 ceph -s osdmap e4055: 14 osds: 14 up, 14 in pgmap v8073416: 1920 pgs, 6 pools, 16777 GB data, 4196 kobjects 33702 GB used, 5371 GB / 39074 GB avail 我创建了4个块设备,每个块设备5 TB: df -h /dev/rbd1 5.0T 2.7T 2.4T 54% /mnt/part1 /dev/rbd2 5.0T 2.7T 2.4T 53% /mnt/part2 /dev/rbd3 …
8 centos  xfs  ceph 

1
将Amazon EC2 ext4 EBS卷转换为XFS文件系统
我需要将Amazon EC2 ext4文件系统转换为XFS文件系统,这样我才能拍摄一致的快照并将其发送到S3。我在美国东部地区使用具有i686架构的ubuntu服务器10.10的自定义小图像。问题在于,我仅对所有文件使用一个EBS驱动器,现在却让我头疼,因为从ssh登录到实例时,我无法真正卸载,格式化驱动器或对其执行任何操作。我的猜测是我需要以某种方式将EBS卷拆分为2,然后将/ var / www和/ var / lib移至第二个EBS卷,然后将其转换为XFS。我正在使用apache2,mysql,ispconfig,bind,postfix,courier,pureftp(http://www.howtoforge.com/perfect-server-ubuntu-10.10-maverick-meerkat-ispconfig-3) 谢谢。

3
将文件系统格式从xfs更改为ext4,而不会丢失数据
我在笔记本电脑上运行了一个新鲜的Lucid Lynx(Ubuntu 10.04)。我将文件系统定义为: 安装点/ ext4(46 Gb) jfs上的挂载点/ home(63 GB) 交换为3 Gb 我整夜离开机器去做一些任务,没有交流电源。第二天早上,我发现它处于待命状态,任务已完成,但是文件系统无法访问。它给了我I / O错误 看来jfs和Standby有问题。 无论如何,为了避免麻烦,我想将此挂载点从jfs格式移至ext4。 我可以做到这一点而又不会丢失数据,也不需要在完成转换之前将数据放置在临时位置吗? 遗憾的是,但是我回想起Windows时代,我们将FAT16更改为FAT32或将FAT32更改为NTFS,而不必丢失数据。我希望这在Linux上可用。 更新 / home文件系统是xfs而不是jfs,并且由于某种原因该文件系统似乎存在错误,我不得不重新安装操作系统两次,直到整个/ 但是,结论是,似乎没有办法进行转换
8 linux  ubuntu  xfs  ext4  jfs 

4
将XFS日志放在SSD上是否可以显着提高性能?
我有五个磁盘阵列在RAID5中运行XFS,我想提高它的性能。我已经看到一些提示,将日志放在单独的设备上可以有所帮助,将日志放在SSD上是否有很大帮助? 从理论上讲,它应该,但是我无法找到任何案例研究来说明某人实际上已经这样做了,而购买固态硬盘然后使其无法正常工作充其量是不方便的……
8 ssd  xfs 

3
如何损坏文件系统
我将在某些大型文件系统(大约50 TB)上测试“ xfs_repair”,因为过去内存使用率很高。虽然我只能在正确的文件系统上测试程序,但是在损坏的系统上测试它们会很好。 因此,破坏文件系统的最佳方法是什么。如果该方法每次都重复给出相同的损坏,则表示额外的信誉。 让人们了解我在2006年的意义ish “要在多TB的文件系统上成功检查或运行修复,您需要: 一台64位机器 一个64位的xfs _修复/ xfs _检查二进制文件 每TB文件系统约2GB RAM 文件系统中每百万inode 100-200MB RAM。 xfs_repair通常使用的内存少于此数量,但是这些数字为您提供了一个修理数字,说明已修复80%以上的大型文件系统需要什么。 FWIW,上一次内部出现此问题时,有问题的29TB文件系统需要约75GB的RAM +交换来修复。”
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.