Questions tagged «disk-usage»

硬盘空间使用情况:我的文件占用多少空间?

2
为什么硬链接似乎占据与原始链接相同的空间?
多亏了在这里和此页面的一些常见问题解答,我现在了解了链接。我看到硬链接用不同的名称引用相同的inode,而副本是不同的“节点,具有不同的名称。加上软链接具有与它们的inode相同的原始文件名和路径,因此如果移动文件,则链接会中断。 因此,我用一些文件(下面的“ saluton_mondo.cpp”)测试了我学到的东西,制作了一个硬链接和一个软链接以及一个副本。 jmcf125@VMUbuntu:~$ ls -lh soft hard copy s*.cpp -rw-rw-r-- 1 jmcf125 jmcf125 205 Aŭg 27 16:10 copy -rw-rw-r-- 2 jmcf125 jmcf125 205 Aŭg 25 13:34 hard -rw-rw-r-- 2 jmcf125 jmcf125 205 Aŭg 25 13:34 saluton_mondo.cpp lrwxrwxrwx 1 jmcf125 jmcf125 17 Aŭg 27 16:09 soft -> saluton_mondo.cpp 我发现尴尬的是,硬链接的大小与原始大小相同,并且在逻辑上与副本大小相同。如果硬链接和原始链接共享同一个索引节点(即具有数据且仅在文件名上有所不同),那么硬链接不应该仅使用其名称的空间而不是205个字节吗?还是ls -lh返回的原始文件的大小?但是,我怎么知道文件名占用什么空间呢?这里说硬链接没有大小。他们的文件名和原始文件名一起保存吗?硬链接的文件名存储在哪里?

3
du错误地报告了空目录
我正在使用以下命令: du -sh --apparent-size ./* du -sh ./* 两者都报告: 4.0K ./Lightroom_catalog_from_win_backup 432M ./Lightroom catalog - wine_backup 而这些目录包含: $ll ./"Lightroom catalog - wine_backup" total 432M -rwxrwx--- 1 gigi gigi 432M Mar 18 2018 Lightroom 5 Catalog Linux.lrcat -rwxrwx--- 1 gigi gigi 227 Nov 21 2015 zbackup.bat $ll ./Lightroom_catalog_from_win_backup total 396M -rwxrwx--- …
13 disk-usage 

6
什么在吞噬我的磁盘空间?
我正在运行Linux Mint 14 Nadia。Linux分区具有10G。系统启动时,du报告使用率达到80%。然后,使用率将缓慢增长,直到达到100%,然后系统将无法使用。(它可能会发生几天或几周)。重新启动后,使用率将重置为80%。 最奇怪的是,du没有任何变化。 这些命令的输出(省略Windows和外部驱动器分区): # --- Just after reboot --- $ df -h Filesystem Size Used Avail Use% Mounted on /dev/sda1 9.8G 7.3G 2.0G 80% / none 4.0K 0 4.0K 0% /sys/fs/cgroup udev 428M 292K 428M 1% /dev tmpfs 88M 1.3M 87M 2% /run none 5.0M 0 5.0M …

1
du的输出错误?
我认为我的du命令感到困惑。 % du -shc DIR ... ... 6123941496 total % du -shc DIR ... ... 6.1G total % du -sc --si DIR ... ... 6.6G total 我尝试LANG=C在电子表格中给出并仔细检查结果。看起来-h已经使用1000(--si)的幂进行输出,而--si给出了错误的答案。我认为正确的答案应该是-h为5.7G,--si为6.1G。那么这里发生了什么? % du --version du (GNU coreutils) 8.20 ... % uname -a Linux XXX 3.9-1-amd64 #1 SMP Debian 3.9.8-1 x86_64 GNU/Linux
12 disk-usage 

6
DU:仅深度显示文件夹
我从du -h类似下面的输出: 103M ./.wine/drive_c/windows/mono/mono-2.0/lib/mono 103M ./.wine/drive_c/windows/mono/mono-2.0/lib 129M ./.wine/drive_c/windows/mono/mono-2.0 129M ./.wine/drive_c/windows/mono 362M ./.wine/drive_c/windows 545M ./.wine/drive_c 我只想显示最可行的文件夹 ./.wine/drive_c/windows/mono/mono-2.0/lib/mono 如果子文件夹负责大部分磁盘空间使用,是否可以删除父文件夹? 仅显示叶文件夹的设置可以解决问题,或者在计算父文件夹的大小时从父文件夹减去所有子文件夹的大小的设置。
12 disk-usage 

3
如何查找按扩展名分组的总文件大小
我在与其他同事共享的集群上工作。硬盘是有限的(在某些情况下已经装满),因此我偶尔会清理部分。我想快速执行此操作,因此直到现在,我都将大于100 MB的文件列表设置为3个月以上,以查看是否仍然需要它们。 但是现在我正在考虑可能存在一个文件夹,其中缺少> 1000个较小的文件,因此我想以一种简单的方法来查看是否是这种情况。从生成数据的方式来看,这将有助于获取每个扩展的总大小列表。在此问题的上下文中,“扩展名”是文件名中最后一个点后面的所有内容。 假设我有多个包含多个文件的文件夹: folder1/file1.bmp 40 kiB folder1/file2.jpg 20 kiB folder2/file3.bmp 30 kiB folder2/file4.jpg 8 kiB 是否可以列出每个文件扩展名的总文件大小列表,如下所示: bmp 70 kiB jpg 28 kiB 我不在乎没有扩展名的文件,因此可以忽略它们或将它们放在一个类别中。 我已经通过手册页去ls,du和find,但我不知道究竟是什么工作的工具...
12 find  ls  disk-usage 

3
Ubuntu-设备上没有剩余空间(NTFS)
我有一台存储大量数据的服务器,我保留了许多嵌套目录,其中包含数百万个文件。 尝试将一个大目录(约700GB)从一个磁盘移动到另一个磁盘时,出现错误: mv /media/storage3/dir /media/storage4/ "No space left on device" 另外,尝试在磁盘上创建一个小的txt文件不起作用: Error opening file '/media/storage4/Untitled Document': No space left on device 我在线检查了许多选项,但没有一个起作用。 df -h输出: Filesystem Size Used Avail Use% Mounted on /dev/sdg7 77G 9.2G 64G 13% / none 4.0K 0 4.0K 0% /sys/fs/cgroup udev 32G 4.0K 32G 1% /dev tmpfs …

1
带有-L标志的du命令的行为
du当与-L命令行选项一起使用时,我注意到命令的一种奇怪行为。 我正在使用Slackware 14和Coreutils 8.19。 要重现异常行为,请创建两个文件夹: mkdir foo mkdir bar 在其中一个文件夹中创建一个文件: perl -e 'print "A"x10000' > foo/text 在另一个文件夹中还有一个符号链接: ln -s ../foo/text bar/text 现在,如果您键入: du -h -L bar 你会得到: 16k bar 由于符号链接已被取消引用。但是,如果您键入: du -h -L * 你会得到: 16K foo 4.0K bar 而且符号链接不会被取消引用。我想念什么吗?

2
如何列出最消耗IO的文件?
我的文档管理软件正在处理大量IO,我想知道它访问最多的文件。 有没有一种Linux工具可以每隔几秒钟为我提供IO消耗最大的文件列表,例如iotop,但对于文件来说呢? 可能看起来像: $ thetool THRPUT R/W/SWP FILE 40MB/s write /usr/alfresco/repo/1283421/1324928.doc 12MB/s read /usr/alfresco/cache/3928dh29f8if 11MB/s read /tmp/239398hf2f024f472.tmp 我看着的手册页iotop,lsof,strace他们似乎并没有提供这样的功能。

2
如何通过du命令仅显示特定扩展名的文件总大小
我在目录中有数百个pdf文件和html文件。我想知道pdf文件的总大小。 通过命令,du -ch /var/foo我可以看到文件的总大小,但是我只需要最后一行,即总大小。 如果目录仅包含pdf文件,我可以使用-s选项,但是这次不能使用该选项。 如何仅获取特定文件类型的总大小?

5
Shell脚本,如果磁盘使用率超过90%,则发送警报邮件
我想在服务器上实现一个脚本,如果磁盘使用率超过90%,它将自动发送电子邮件警报;当磁盘使用率超过95%时,将自动发送第二电子邮件警报。我的文件系统是abc:/xyz/abc,挂载点是/pqr。 我已经试过了: ADMIN="someone@def.com" ALERT=90 df -H | grep -vE 'abc:/xyz/pqr | tmpfs |cdrom' | awk '{ print $5 " " $1 }' | while read output; do usep=$(echo $output | awk '{ print $1}' | cut -d'%' -f1 ) partition=$(echo $output | awk '{ print $2 }' ) if [ …

3
如何知道文件系统下的目录列表?
如果我运行sudo df -h命令,则会得到以下输出: Filesystem Size Used Avail Use% Mounted on /dev/sda2 12G 9.5G 1.1G 91% / /dev/sda4 3.8G 1.5G 2.1G 41% /home /dev/sda1 99M 75M 20M 80% /boot tmpfs 3.9G 0 3.9G 0% /dev/shm /dev/sdc1 51G 2.6G 46G 6% /u000 但是,我怎么知道下面的目录列表/sda2?例如,如果我运行ls /命令,则所有目录都位于根目录下。 $ ls / bin cdunix dev etc lib …

7
将大目录树拆分为指定大小的块?
我有一个目录树,我想备份到光盘。不幸的是,它超过了任何一个磁盘的大小(大约60GB)。我正在寻找一个脚本,该脚本将使用硬链接或其他方式将此树拆分为适当大小的块(不更改原始树)。然后,我可以将这些大小不一的树放入备份过程中(添加PAR2冗余等)。 这不是一个花哨的脚本,但似乎已经完成了。有什么建议吗? (跨一步写是不行的,因为我想在刻录文件之前做更多的事情。)

2
无法将大文件复制到ext2 USB记忆棒上[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为Unix&Linux Stack Exchange 的主题。 4年前关闭。 我有一个8G USB记忆棒(我在linux Mint上),我正在尝试将5.4G文件复制到其中,但是 No space left on device 失败前复制文件的文件大小始终为3.6G 显示已安装的摇杆的输出。 df -T /dev/sdc1 ext2 7708584 622604 6694404 9% /media/moo/ba20d7ab-2c46-4f7a-9fb8-baa0ee71e9fe df -h /dev/sdc1 7.4G 608M 6.4G 9% /media/moo/ba20d7ab-2c46-4f7a-9fb8-baa0ee71e9fe du -h --max-depth=1 88K ./.ssh ls -h myfile -rw-r--r-- 1 moo moo 5.4G May 26 09:35 …

4
在OpenSolaris下删除文件时设备上没有空间
尝试在客户端盒上安装NFS共享(从OpenIndiana服务器导出)时,OI服务器崩溃。我得到了死亡的黑屏,看上去像是日志转储,然后重新启动了系统。它再也没有恢复,并且在我停止引导后收到以下错误消息: svc.startd[9] Could not log for svc:/network/dns/mulitcast:default: write(30) failed with No space left on device? 除操作系统外,我在启动驱动器上没有其他任何东西,所以...我不确定什么可能会填满驱动器?也许是某种日志文件?我似乎无法删除任何内容。当我尝试删除任何内容时,它没有出现空间错误: $ rm filename cannot remove 'filename' : No space left on device 我可以登录“维护模式”,但不能登录标准用户提示符。 输出df为: rpool/ROOT/openindiana-baseline 4133493 4133493 0 100% / swap 83097900 11028 830386872 1% /etc/svc/volatile /usr/lib/libc/libc_hwcap1.so.1 4133493 4133493 0 100% /lib/libc.so.1 输出mount为: / …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.