Questions tagged «files»

操纵文件:复制,重命名,搜索,分析,归档等。有关对文件中的文本进行操作的信息,请参见/ text-processing。有关“文件”文件管理器(以前为Nautilus)的问题,请参阅/ nautilus。

5
获取最新目录(不是最新文件)
我的文件夹parent包含以下内容: A.Folder B.Folder C.File 它既有文件夹又有文件。B.Folder较新。现在我只想得到B.Folder,如何实现呢?我试过了 ls -ltr ./parent | grep '^d' | tail -1 但这给了我drwxrwxr-x 2 user user 4096 Jun 13 10:53 B.Folder,但是我只需要名字B.Folder。
15 shell  files  ls  timestamps 

4
类似于shell的二进制处理环境
这个问题前几次出现在我面前,现在是对问题的回应,它 来自Bash中stdin的二进制数据块, 在/programming/993434/what-language-is-to-binary中给出按文本进行操作也不令人满意。 我正在寻找一个专门用于处理二进制文件I / O的脚本环境。我知道我可以使用一种成熟的编程语言(c / Python / ...),但是它们有巨大的初始化和编码开销(c中的分配和fread / fwrite,Python中的位串...)更不用说它们不太适合编写脚本(从中调用其他应用程序)。Perl的unpack功能,面向字符串的操作和愚蠢的语法没有更好的选择。 类似od,但作为一种语言。 我的期望: 使用单个开关/命令设置或更改字节序。 请求类型的简单的规范(像延伸的bash read var用int32 var, float var等)。 通过管道处理二进制,跳过指定的字节数。 我们习惯的标准脚本流控制(for / if / ...)。 我想以与检查ASCII文件时一样的便捷性和洞察力来处理原始数据(摄影,科学数据,未知和记录不良的格式)。我现在正在使用c,但是它不是临时脚本的最佳选择,并且不能交互。 有谁知道这样的工具?请没有clicky GUI软件,它需要通过ssh,其他脚本等工作。“不存在”是可以接受但令人沮丧的答案。


7
如何复制文件夹中的每个第4个文件
我的文件夹中有很多文件,名称为00802_Bla_Aquarium_XXXXX.jpg。现在,我需要将每个第4个文件复制到一个子文件夹中,用表示selected/。 00802_Bla_Aquarium_00020.jpg <= this one 00802_Bla_Aquarium_00021.jpg 00802_Bla_Aquarium_00022.jpg 00802_Bla_Aquarium_00023.jpg 00802_Bla_Aquarium_00024.jpg <= this one 00802_Bla_Aquarium_00025.jpg 00802_Bla_Aquarium_00026.jpg 00802_Bla_Aquarium_00027.jpg 00802_Bla_Aquarium_00028.jpg <= this one 00802_Bla_Aquarium_00029.jpg 我该怎么做呢?
15 bash  files  cp 



9
提取嵌套的zip文件
我有许多zip档案,每个档案都包含许多zip档案。递归提取此zip存档及其子zip存档中包含的所有文件的最佳方法是什么,而不是zip存档本身?
15 files  scripting  zip 

5
文件夹中数百万个(小的)文本文件
我们希望在Linux文件系统中存储数百万个文本文件,目的是能够压缩并提供任意集合作为服务。我们尝试了其他解决方案,例如键/值数据库,但是对并发性和并行性的要求使使用本机文件系统成为最佳选择。 最直接的方法是将所有文件存储在一个文件夹中: $ ls text_files/ 1.txt 2.txt 3.txt 这在EXT4文件系统上应该是可能的,而EXT4文件系统对文件夹中的文件数没有限制。 这两个FS过程将是: 从网络抓取中写入文本文件(不受文件夹中文件数量的影响)。 压缩所选文件,由文件名列表给出。 我的问题是,在一个文件夹中存储多达一千万个文件是否会影响上述操作的性能或整个系统的性能,这与为文件驻留一个子文件夹树有什么不同?

3
如何输出文件的“稀疏”?
如何输出实际用数据填充了多少文件标称大小?就像vmtouch显示当前内存中有多少文件... 我希望工作流程是这样的: $ fallocate -l 1000000 data $ measure_sparseness data 100% $ fallocate -p -o 250000 -l 500000 data $ measure_sparseness 50% 解决方法:使用du -bsh和du -sh并加以比较。

5
删除流浪者文件,我看到.nfs0000000000b869e300000001
我删除了一个文件,现在我看到: $ ls total 64 -rw-rw-r-- 1 502 17229 Sep 17 16:42 page_object_methods.rb drwxrwxr-x 7 502 238 Sep 18 18:41 ../ -rw-rw-r-- 1 502 18437 Sep 18 18:41 new_page_object_methods.rb -rw-r--r-- 1 502 16384 Sep 18 18:42 .nfs0000000000b869e300000001 drwxrwxr-x 5 502 170 Sep 21 13:48 ./ 13:48:11 *vagrant* ubuntu-14 selenium_rspec_conversion 如果我尝试将其删除: …
15 files  nfs  rm  vagrant 


4
/ home / <用户> /上的权限755
我想知道为什么默认情况下我的目录的/home/&lt;user&gt;/权限设置为755。这使其他用户可以进入目录并读取我家中的文件。有任何正当的理由吗? 我可以700为我的主目录和所有子目录设置权限吗,例如: chmod -R o-xw /home/&lt;user&gt;/ chmod -R g-xw /home/&lt;user&gt;/ 没有破坏任何东西? 另外,是否可以在我的家庭中设置权限,以便所有创建的新文件都具有600和目录700?

6
如何等待shell脚本中的文件?
我正在尝试编写一个shell脚本,该脚本将等待文件出现在/tmp名为的目录中sleep.txt,一旦找到该程序,它将停止运行,否则我希望该程序处于睡眠(已暂停)状态,直到找到该文件为止。现在,我假设我将使用测试命令。所以,像 (if [ -f "/tmp/sleep.txt" ]; then stop else sleep.) 我是刚开始编写Shell脚本的人,对您的帮助非常感谢!

5
如何通过使用关键字边界分割文件
我有一个vcf文件,其中包含许多vcard。 将vcf文件导入Outlook时,似乎仅导入第一个vcard。 因此,我想将它们分开。 假设vcard以 BEGIN:VCARD 并以 END:VCARD 将每个vcard拆分成自己的文件的最佳方法是什么。 谢谢 更新 感谢您的所有回复。与这种性质的问题一样,有多种方法可以为猫皮。这就是为什么我选择自己选择的理由。 围捕 这是我对每个答案的喜好以及促使我选择其中一个的摘要。 csplit:我真的很喜欢这种方法的简洁性。我只是希望它能够设置文件扩展名。 gawk:它满足了我的所有要求。 paralell:工作。但是我必须安装新东西。(它还决定在我的主目录中创建一个新的/ bin目录) perl:我喜欢它根据联系人的姓名创建了vcf。但是-o选项并没有真正起作用 结论 所以第一个要去的是perl因为它有点破 接下来是paralell因为我必须安装新东西 接下来是csplit,因为据我所知,它无法在输出文件上创建扩展名 因此,该奖项颁给了gawk,因为它是一个易于使用的实用程序,而且用途广泛,足以让我可以稍微修改一下文件名。也有奖金标记cmp:)
15 files  split 

3
没有读访问权限的写访问权限
用户是否可能具有对文件的写访问权而无法读取它?这怎么可能? 我尝试了以下命令: debianbox@debian:~/posix/io$ touch filetest debianbox@debian:~/posix/io$ ls -l filetest -rw-r--r-- 1 debianbox debianbox 0 14 oct. 03:10 filetest debianbox@debian:~/posix/io$ echo "Hello World" &gt; filetest debianbox@debian:~/posix/io$ cat filetest Hello World debianbox@debian:~/posix/io$ chmod u-r filetest debianbox@debian:~/posix/io$ cat filetest cat: filetest: Permission forbidden debianbox@debian:~/posix/io$ 如您在这里看到的,我对该文件具有写但没有读访问权限。这怎么可能?这被视为错误吗?如果没有,这在什么情况下有用?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.