Questions tagged «filesystems»

文件系统(或文件系统)是一种通过提供存储,检索和更新数据的过程以及管理包含该数据的设备上的可用空间来组织程序在程序终止后将保留的数据的方法。


2
.nfsXXXX文件出现了,这些是什么?
我有一个运行(在RHEL5上)的应用程序,该应用程序将数据流式传输到NFS共享上。最近,我看到许多.nfsXXXX ...(xxx是十六进制数字)出现在其工作目录中,该应用程序在其中写入每小时文件,然后将它们移至另一个文件名。 这些文件是什么?这是否表明出现了问题?如何做进一步诊断?
38 unix  filesystems  nfs 

7
如果我删除失物招领处怎么办
当您创建诸如ext3之类的Linux文件系统时,将创建“ lost + found”目录。根据此文件,如果文件由于某种系统崩溃而损坏,则会将其放置在该位置。 如果删除此目录,系统崩溃,将会发生什么。如果文件夹被删除,我是否可以使用mkdir lost + found创建新目录,或者是否只有在创建文件系统时才能设置的属性。

3
fsck什么时候危险?
最近,由于一致性问题,我已经看到远程数据中心中计算机的根文件系统以只读方式重新安装。 重新启动时,显示此错误: UNEXPECTED INCONSISTENCY: RUN fsck MANUALLY (i.e., without -a or -p options) 按照建议运行fsck,并使用手动接受更正后Y,更正了错误,并且系统现在可以正常运行。 现在,我认为将fsck配置为自动运行并修复所有内容会很有趣,因为在某些情况下(例如这种情况),唯一的选择是亲自到远程数据中心并将控制台连接到受影响的计算机。 我的问题是:默认情况下,为什么fsck要求手动干预?这种程序执行的校正如何以及何时是不安全的?在哪些情况下,系统管理员可能希望将建议的校正搁置一段时间(以执行一些其他操作)或将其全部中止?


2
无法写入磁盘,但磁盘未满
我正在使用Ubuntu 12.04,无法写入任何文件,即使是root用户,也不能执行任何其他需要写入的操作。不需要编写任何进程,因此它们都将失败。df说我有足够的空间: Filesystem Size Used Avail Use% Mounted on /dev/xvda1 30G 14G 15G 48% / udev 984M 4.0K 984M 1% /dev tmpfs 399M 668K 399M 1% /run none 5.0M 0 5.0M 0% /run/lock none 997M 0 997M 0% /run/shm 我发现的所有关于“无法写入磁盘”的结果均与合法的完整磁盘有关。我什至不知道从哪里开始。这个问题今天早晨突然出现了。 PHP的最后一个日志条目是: 失败:设备上没有剩余空间(28) Vim说: 无法打开(文件)进行写入 其他应用程序也会出现类似的错误。 可以肯定的是,删除〜1gb后,问题仍然存在。我也重新启动了。 df -i 说 Filesystem …


8
如何解决NTFS移动/复制设计缺陷?
正如处理文件服务器权限的任何人都知道的那样,NTFS具有一个有趣的设计功能/缺陷,称为“移动/复制”问题。 如所解释的该MS的知识库文章中,对于一个文件夹或文件的权限不会自动从父,如果文件夹被移动继承以及源和目的地是否相同NTFS卷上。如果复制了文件夹,或者源和目标位于不同的卷上,则继承权限。 这是一个简单的示例: 您在同一NTFS卷上有两个共享文件夹,分别称为“技术人员”和“管理人员”。“技术人员”组具有对“技术人员”文件夹的RW访问权限,而“管理者”组具有对“经理”文件夹的RW访问权限。如果某人可以同时访问这两个文件夹,并且他们将子文件夹从“ Managers”文件夹移至“ Technicians”文件夹,则移动的文件夹仍仅对“ Managers”组中的用户可用。即使位于“技术人员”文件夹下,“技术人员”组也无法访问该子文件夹,并且应该从顶部继承权限。 您可以想象,这会导致解决这些最终用户问题的支持电话,故障单和浪费的时间,更不用说如果用户经常在文件夹上不同安全文件夹/区域之间移动文件夹时可能会产生的大量麻烦。相同的音量。 问题是: 解决此NTFS设计缺陷的最佳方法是什么?如何在您的环境中处理它? 我知道链接的知识库文章讨论了一些用于更改Windows资源管理器默认行为的注册表项,但是它们是客户端的,并且要求用户具有更改权限的能力,如果您使用大多数环境,我认为这是不入门的想要控制您的文件服务器权限(以及您作为系统管理员的理智)。

11
分布式存储文件系统-哪一个/是否有现成的产品?
博客和相关新闻中遍布着Hadoop和CouchDB,什么才是真正有效的分布式容错存储(引擎)。 CouchDB实际上没有内置的任何分发功能,据我所知,用于自动分发条目甚至整个数据库的胶水简直就是缺失。 Hadoop似乎得到了广泛的应用-至少它受到了很好的关注,但仍然存在单点故障:NameNode。另外,它只能通过FUSE挂载,我知道HDFS实际上并不是Hadoop的主要目标 GlusterFS确实没有共享概念,但是最近我读了几篇文章,使我认为它不太稳定 由于使用专用的元数据服务器,Lustre也有单点故障 Ceph似乎是首选的播放器,但首页指出它仍处于Alpha阶段。 因此,问题在于哪个分布式文件系统具有以下功能集(无特定顺序): 兼容POSIX 轻松添加/删除节点 无共享概念 在便宜的硬件上运行(AMD Geode或VIA Eden类处理器) 内置认证/授权 网络文件系统(我希望能够同时将其安装在其他主机上) 很高兴有: 本地可访问文件:我可以使用标准本地文件系统(ext3 / xfs / whatever ...)将节点挂载到该分区,并仍然访问文件 我不是在寻找托管应用程序,而是让我可以占用每个硬件盒10GB的空间,并在我们的网络中拥有可用的存储空间,可以轻松地将其安装在众多主机上。

5
现代文件系统中数百万个文件的性能影响是什么?
假设我们正在使用ext4(启用dir_index)来托管大约3M文件(平均大小为750KB),并且我们需要确定要使用的文件夹方案。 在第一个解决方案中,我们对文件应用哈希函数,并使用两个级别的文件夹(第一级为1个字符,第二级为2个字符):因此,作为filex.for哈希值等于abcde1234,我们将其存储在/ path中/ a / bc /abcde1234-filex.for。 在第二个解决方案中,我们对文件应用哈希函数,并使用两个级别的文件夹(第一级为2个字符,第二级为2个字符):因此,作为filex.for哈希值等于abcde1234,我们将其存储在/ path中/ ab / de /abcde1234-filex.for。 对于第一个解决方案,我们将采用以下方案/path/[16 folders]/[256 folders],每个文件夹平均有732个文件(文件所在的最后一个文件夹)。 而在第二个解决方案,我们将有/path/[256 folders]/[256 folders]与平均每个文件夹45页的文件。 考虑到我们将大量(基本上是nginx缓存系统)从该方案中写入/取消链接/读取文件(但大部分是read),从性能的角度来说,如果我们选择一种或其他解决方案,它是否很重要? 另外,我们可以使用哪些工具来检查/测试此设置?

1
为什么删除大文件需要更长的时间?
我的理解是,rm在文件上运行只会取消链接,从而在文件系统中将空间标记为空闲。然后应该遵循的原则是,删除一个文件通常花费大致相同的时间(即删除速度与文件数量成正比,而不与文件大小成正比)。 那么,为什么删除一个15 GB的文件却要花一分钟多的时间rm file.tar.gz呢?

9
比较(差异)完整目录结构的最佳方法?
比较目录结构的最佳方法是什么? 我有一个使用rsync的备份实用程序。我想告诉您源文件和备份文件之间的确切差异(在文件大小和最后更改的日期方面)。 就像是: Local file Remote file Compare /home/udi/1.txt (date)(size) /home/udi/1.txt (date)(size) EQUAL /home/udi/2.txt (date)(size) /home/udi/2.txt (date)(size) DIFFERENT 当然,该工具可以是现成的,也可以是关于python脚本的想法。 非常感谢! 乌迪


3
XFS文件系统在RHEL / CentOS 6.x中已损坏-我该怎么办?
RHEL的最新版本/ CentOS的(EL6)带来的一些有趣的变化XFS文件系统,我依赖严重了十多年。去年夏天,我花了一部分时间来追查由于文档记录不良而导致的XFS稀疏文件情况。自迁移到EL6以来,其他人则遇到了不幸的性能问题或行为不一致的情况。 XFS是我用于数据和增长分区的默认文件系统,因为它提供了比默认ext3文件系统更高的稳定性,可伸缩性和良好的性能。 2012年11月出现在EL6系统上的XFS出现问题。我注意到我的服务器即使在空闲时也显示出异常高的系统负载。在一种情况下,空载系统的平均负载平均值为3+。在其他情况下,负载会增加1+。挂载的XFS文件系统的数量似乎会影响负载增加的严重性。 系统有两个活动的XFS文件系统。升级到受影响的内核后,负载为+2。 深入研究,我在XFS邮件列表中发现了一些线程,这些线程指出xfsaild处于STAT D状态的进程的频率增加。相应的CentOS Bug Tracker和Red Hat Bugzilla条目概述了该问题的细节,并得出结论,这不是性能问题。在2.6.32-279.14.1.el6以后的内核中,报告系统负载中只有一个错误。 WTF?!? 在一次性情况下,我了解到负载报告可能并不重要。尝试使用您的NMS和成百上千的服务器进行管理!在EL6.3下的2012年11月内核2.6.32-279.14.1.el6中确定了这一点。内核2.6.32-279.19.1.el6和2.6.32-279.22.1.el6在随后的几个月(2012年12月和2013年2月)中发布,此行为没有任何变化。自从发现此问题以来,甚至还发布了新的操作系统次要版本。EL6.4已发布,现在位于内核2.6.32-358.2.1.el6上,该内核具有相同的行为。 我有一个新的系统构建队列,并且不得不解决此问题,要么在2012年11月之前的版本中锁定内核版本以用于EL6.3,要么只是不使用XFS,而是选择ext4或ZFS,这会严重影响性能。用于在顶部运行的特定自定义应用程序。有问题的应用程序严重依赖某些XFS文件系统属性来解决应用程序设计中的缺陷。 在Red Hat的付费专区知识库站点后面,出现一个条目,指出: 安装内核2.6.32-279.14.1.el6后,观察到较高的平均负载。平均负载高是由于每个XFS格式化设备的xfsaild进入D状态引起的。 当前没有解决此问题的方法。当前正在通过Bugzilla#883905进行跟踪。解决方法将已安装的内核软件包降级到低于2.6.32-279.14.1的版本。 (除了降级内核不是RHEL 6.4上的选项...) 因此,我们已经有4个多月的时间解决此问题,并且没有针对EL6.3或EL6.4 OS版本计划任何真正的修复。有一个针对EL6.5的建议修复程序和一个内核源补丁可用...但是我的问题是: 当上游维护者破坏了重要功能时,在什么时候离开操作系统提供的内核和软件包是有意义的? 红帽介绍了此错误。他们应该将修复程序合并到勘误内核中。使用企业操作系统的优势之一是它们提供了一致且可预测的平台目标。此错误在补丁程序周期内破坏了已经投入生产的系统,并降低了部署新系统的信心。虽然我可以将其中一个建议的补丁应用于源代码,但它的可伸缩性如何?随着操作系统的更改,需要保持警惕以保持更新。 什么是正确的举动? 我们知道这可能是固定的,但不是固定的。 在Red Hat生态系统中支持自己的内核有其自身的警告。 对支持资格有什么影响? 我是否应该将工作正常的EL6.3内核覆盖在新建的EL6.4服务器之上以获得适当的XFS功能? 我应该等到这个问题正式解决吗? 这说明我们对企业Linux发行周期缺乏控制是什么意思? 长期以来一直依赖XFS文件系统进行计划/设计错误吗? 编辑: 该补丁已合并到最新的CentOSPlus内核发行版中(kernel-2.6.32-358.2.1.el6.centos.plus)。我正在CentOS系统上对此进行测试,但这对基于Red Hat的服务器没有太大帮助。

4
ext4是否有一种“快速”格式?
在Windows中,使用NTFS格式化非常快。我有一台低功耗的Linux机器,几乎没有RAM。将2TB卷格式化为ext4需要很长时间。 我可以做些什么来加快格式吗?我无法想象需要这么长时间?(花了这么长时间)

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.