Questions tagged «gzip»

gzip(或GNU zip)是一种文件格式,是用于使用DEFLATE算法压缩文件的相应实用程序。通常的扩展名是.gz。


3
尽管CPU和硬盘驱动器的性能没有达到极限,为什么gzip仍然很慢?
我有一些JSON文件,每个文件20 GB,我想使用以下文件进行压缩gzip: gzip file1.json 这样就占用了一个完整的CPU内核。 它的处理速度约为25 MB / s(已签入atop),我的硬盘驱动器可以读取125 MB / s,并且我拥有3个免费的处理器内核,因此我希望在并行压缩多个文件时能够加快速度。所以我在其他终端上运行: gzip file2.json gzip file3.json gzip file4.json 令人惊讶的是,我的吞吐量没有增加。每个核心上的CPU大约占25%,而我的高清仍然只能以25 MB / s的速度读取。 为什么以及如何解决?

7
SVN直接转tar
有没有办法直接压缩SVN文件夹的最新版本而没有SVN隐藏文件?我想创建一个没有SVN文件的tar存档。我知道您可以使用SVN跟踪文件获取最新信息,但是是否有一个可以直接将信息发送到存档的衬板?
13 svn  tar  gzip  packages 

1
在Windows上使用“ gzip --decompress”时,结果为“ gzip:MYFILE.zip:后缀未知-已忽略”
在Windows PowerShell中(如果有关系),我想使用gzip带有参数的zip文件解压缩--decompress,但是不幸的是它不起作用。请看下面的截图。 gzip --decompress "colorbox.zip" 其结果: gzip:colorbox.zip:后缀未知-已忽略 您有什么主意如何摆脱这个错误吗?(我必须使用它,因为我正在使用Drush,因为它使用了它。) 顺便说一句,我已经安装了GnuWin32。 另一个屏幕截图,只是为了清楚说明这是由Drush 7.x-5.4引起的: 升级到7.x-5.8后: 在PowerShell中,解压缩有效: 因此,在Jeff的帮助下,我意识到Drush 7.x-5.4中的MIME类型检测有问题。解决了。谢谢,杰夫!
13 shell  gzip  gnuwin32 


5
gzip所有文件而不删除它们
我需要单独将目录中的所有文件gzip压缩,包括子目录中的所有文件,而之后不删除原始文件。假设我有index.html,最后我想拥有index.html.gzip和index.html。 我可以通过以下方式将目录中的所有文件gzip压缩 gzip -r . 但是我也想保留原始文件。 这可能吗?

7
有效地将gzip文件转换为bzip2
我有一堆gzip文件,我必须不时将其转换为bzip2。当前,我正在使用一个shell脚本,该脚本只是简单地对每个文件进行“ gunzip”,然后对它进行“ bzip2”。尽管此方法可行,但仍需要大量时间才能完成。 是否可以使此过程更有效?我准备下潜,并在必要时查看gunzip和bzip2的源代码,但我只是想确保获得回报。是否有提高流程效率的希望?
10 conversion  gzip 

2
在Windows中可以使用什么来“ gzip”?
压缩文件很棒!它们是我所知道的最好的压缩文件,如果您比较压缩率,.rar和.zip都不在话下。 通常我使用Windows,有人知道如何在Windows中gzip吗?我对附件的大小有严格的限制,因此压缩得更多的东西会更好。
10 windows  gzip 

2
.tgz文件– tar:无法识别的存档格式
我正在尝试在运行Mountain Lion(10.8.3)的本地Mac上安装MongenDB的10gen版本: 我在获取它curl: curl http://downloads.mongodb.org/osx/mongodb-osx-x86_64-2.4.tgz > mongodb.tgz 但是我无法提取构建: 尝试1: $ tar -zxvf mongodb.tgz tar: Unrecognized archive format tar: Error exit delayed from previous errors. 尝试2: $ gunzip mongodb.tgz gzip: mongodb.tgz: not in gzip format 尝试3: $ unzip mongodb.tgz Archive: mongodb.tgz End-of-central-directory signature not found. Either this file is not a …

2
存档(.tar.gz)腐败
我有一个.tar.gz档案,肯定遭受了某种腐败。存档中的数据对我来说显然非常珍贵,我真的很想尽可能多地接触。显然我不希望得到所有这些,但尽可能多的帮助。 此存档通过FTP发送给我,但在发送存档的人的末尾也被损坏。这在FTP传输过程中不应该被破坏。我无法再获得它的另一份副本。 显然,我已经尝试过对此做些什么了。我使用了一个名为的开源应用程序 gzrecover 然后在原始存档上尝试提取由gzrecover生成的“已恢复”存档。但是,这并没有给我带来太大帮助。我能够从中获取一些文件,但不是全部。我查看了Ark(KDE的存档管理器)中的存档,它能够生成存档内容的完整列表(因此,存档中的所有文件和文件夹),所以我有点希望存档仍然存在有一些恢复的机会。 原始存档大小约为18GB。 “恢复”存档大小约为30GB。 我还使用GNU cpio从恢复的档案中提取。它首先成功提取存档的一些内容(大约两分钟),然后开始发送垃圾邮件 cpio: Malformed number �������� 在运行了几天之后(和我的终端垃圾邮件一样长),我终于收到了消息 cpio: premature end of file 同样,在垃圾邮件“格式错误的号码”期间,我没有从它提取的文件夹中增加任何类型的文件大小。换句话说,除此之外根本没有恢复数据。 我使用以下两个cpio命令来提取存档: cpio -ivd -H tar < archive.tar.recovered cpio -F archive.tar.recovered -i -v 毋庸置疑,我曾尝试使用gzrecover多次恢复此存档,并使用这两个cpio命令提取每个存档。 我要求完全不顾一切地恢复这些数据。我还可以使用其他什么方法?如何从此存档中恢复数据?这个档案中的数据对我来说意义重大,我会为失去它而烦恼不已。我会做很多事来恢复它。 谢谢。

1
不确定gzip是否解压缩了整个文件
我正在使用gzip解压缩文件列表: 在任何时候它从一个文件跳到下一个文件,我读(我使用的是详细选项): star_60out.txt.gz: 91.0% -- replaced with star_60out.txt 要么 star_65out.txt.gz: 90.9% -- replaced with star_65out.txt 这是否意味着它只解压缩了91%的这些文件?

1
UNIX shell命令用于扩展任何压缩类型的文件
是否有任何UNIX shell命令来扩展预先不知道类型的压缩文件? 我应该可以使用此命令来扩展至少以下任何类型的文件,但是欢迎使用任何其他已知类型(如.rar或.7z)的能力: 柏油 tar.gz的 TGZ GZ gzip的 BZ2 压缩 涉及单线命令的简单想法将是最佳解决方案,但任何评论都表示赞赏。

2
在一次点击中搜索压缩的*和*非压缩文件
我有一个文件夹,其中包含我要搜索的压缩和解压缩日志文件。 我可以搜索非压缩的 grep -r "my-search-string" /path/to/folder 并使用搜索压缩文件 find /path/to/folder -name "*.gz" -exec zcat "{}" + | grep "my-search-string" 是否有一个单行程,我可以用来搜索所有压缩和解压缩的文件/path/to/folder? 谢谢,马克斯
2 linux  grep  zip  gzip 

0
同时在apache中启用CGI中的gzip和$ STR_REPLACE
我的CGI脚本中有一个代码用于文本替换(例如将'red'替换为'blue') $STR_SEARCH='red' $STR_REPLACE='blue' 我在.htaccess中使用以下代码来启用替换功能: (RequestHeader unset Accept-Encoding) 这很好用。但是当我想使用gzip进行压缩时,gzip不起作用。如果我禁用替换,gzip工作正常。如何让gzip和替换一起工作?

1
是否已经在gzip安全的过程中对目录树运行gzip压缩?
我可以使用tar -zcvf(gzip)同时压缩相同的目录树(例如,在两个单独的shell中,一个接一个,但第二个在第一个完成之前运行),使用两个不同的进程(shell实例),这样两个结果.tar.gz归档是创建就好像只有一个shell tar -zcvf在另一个之后运行? 也就是说,archive.tar.gz由于两个同时运行tar -zcvf在同一目录树上,每个决赛都不会以某种方式损坏?
1 compression  tar  gzip 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.