Questions tagged «large-files»

大型文件,无论是二进制文件还是文本文件,即使对于有经验的程序员而言,有时也会有问题。如果出现与在文本编辑器中打开和/或写入大文件,管理运行至千兆字节的资源或处理大量数据的战略决策有关的问题,则应使用此标记。

2
文本编辑器打开大(巨型,巨大,大)文本文件
按照目前的情况,这个问题不适合我们的问答形式。我们希望答案会得到事实,参考或专业知识的支持,但是这个问题可能会引起辩论,争论,民意调查或扩展讨论。如果您认为此问题可以解决并且可以重新提出,请访问帮助中心以获取指导。 8年前关闭。 这个问题的答案是社区的努力。编辑现有答案以改善此职位。它目前不接受新的答案或互动。 我的意思是100+ MB大;这样的文本文件可以推挤编辑器的范围。 我需要浏览一个大的XML文件,但是如果编辑器有错误,则无法浏览。 有什么建议么?

12
使用Git管理大型二进制文件
我正在寻找有关如何处理源代码(Web应用程序)所依赖的大型二进制文件的意见。我们目前正在讨论几种替代方法: 手动复制二进制文件。 优点:不确定。 相反:我强烈反对这一点,因为它在建立新站点/迁移旧站点时增加了出错的可能性。建立另一个障碍。 用Git管理它们。 专业版:消除了“忘记”复制重要文件的可能性 相反:膨胀存储库并降低管理代码库的灵活性,而检出,克隆等将花费相当长的时间。 单独的存储库。 优点:签出/克隆源代码比以往任何时候都快,并且图像已正确存储在其自己的存储库中。 相反:消除了在项目上拥有唯一的 Git存储库的简单性。它肯定会引入其他我从未想过的东西。 您对此有何经验/想法? 另外:是否有人在多个Git存储库中进行过管理并在一个项目中进行管理? 这些文件是程序的图像,该程序会在其中生成包含这些文件的PDF。文件不会经常更改(像几年一样),但是它们与程序非常相关。没有文件,该程序将无法运行。

7
在C#中读取和解析Json文件
我花了两天的大部分时间来“打理”代码示例等,试图将一个非常大的JSON文件读入c#中的数组,以便稍后将其拆分为2d数组进行处理。 我遇到的问题是,我找不到任何有人在做我想做的事的例子。这意味着我只是在编辑代码,以期获得最佳效果。 我设法使某些东西能够工作: 读取文件Miss out标头,仅将值读入数组。 在数组的每一行上放置一定数量的值。(所以我以后可以将它分割成2d数组) 这是通过下面的代码完成的,但是在数组中输入几行后,它使程序崩溃。这可能与文件大小有关。 // If the file extension was a jave file the following // load method will be use else it will move on to the // next else if statement if (fileExtension == ".json") { int count = 0; int count2 = 0; int …
239 c#  json  parsing  large-files 

18
Java文件中的行数
我使用巨大的数据文件,有时我只需要知道这些文件中的行数,通常我会打开它们并逐行读取它们,直到到达文件末尾 我想知道是否有更聪明的方法可以做到这一点

9
在C#中为大型文件创建校验和的最快方法是什么
我必须在某些计算机上同步大文件。文件最大为6GB。同步将每隔几周进行一次。我不能考虑文件名,因为它们可以随时更改。 我的计划是在目标PC和源PC上创建校验和,然后将带有校验和的所有文件复制到目标中,而校验和尚未在目标中。我的第一次尝试是这样的: using System.IO; using System.Security.Cryptography; private static string GetChecksum(string file) { using (FileStream stream = File.OpenRead(file)) { SHA256Managed sha = new SHA256Managed(); byte[] checksum = sha.ComputeHash(stream); return BitConverter.ToString(checksum).Replace("-", String.Empty); } } 问题是运行时: -带有1.6 GB文件的SHA256-> 20分钟 -带有1.6 GB文件的MD5-> 6.15分钟 是否有更好(更快)的方法来获取校验和(也许具有更好的哈希函数)?
128 c#  .net  large-files  checksum 

10
在VIM中处理大型文件
我试图在VIM中打开一个巨大的文件(〜2GB),但它被阻塞了。我实际上不需要编辑文件,只需高效地跳转即可。 如何在VIM中处理非常大的文件?
108 vim  large-files 

15
如何在目录及其子目录中找到最大的文件?
我们刚刚开始UNIX类,并且正在学习各种Bash命令。我们的工作涉及在目录下执行各种命令,该目录下还包含许多文件夹。 我知道如何使用以下方法列出和计数根文件夹中的所有常规文件: find . -type l | wc -l 但是我想知道从那里去哪里才能找到整个目录中最大的文件。我已经看到了有关du命令的一些信息,但是我们还没有学到,所以在我们学到的所有命令中,我认为我们需要以某种方式将其连接到ls -t命令。 如果我的“行话”不正确,请原谅我,我仍然会习惯它!

11
在C#中使用流读取大型文本文件
我有一个可爱的任务,要弄清楚如何处理被加载到应用程序的脚本编辑器中的大文件(就像我们的内部产品的VBA一样,用于快速宏)。大多数文件约为300-400 KB,可以很好地加载。但是,当它们超过100 MB时,该过程将很困难(如您所料)。 发生的情况是将文件读取并推入RichTextBox中,然后进行导航-不必过多担心这一部分。 编写初始代码的开发人员只需使用StreamReader并执行 [Reader].ReadToEnd() 这可能需要一段时间才能完成。 我的任务是分解这段代码,将其分块读取到缓冲区中,并显示一个带有取消它选项的进度条。 一些假设: 大多数文件将为30-40 MB 文件的内容是文本(不是二进制),有些是Unix格式,有些是DOS。 检索到内容后,我们便确定使用了哪种终止符。 一旦加载了RichTextBox中呈现所需的时间,就没有人关心。这只是文本的初始加载。 现在开始提问: 我可以简单地使用StreamReader,然后检查Length属性(即ProgressMax)并发出Read来获取设置的缓冲区大小,并在后台工作程序内的while循环WHILST中进行迭代,以便它不会阻塞主UI线程吗?然后,在完成后将stringbuilder返回到主线程。 内容将转到StringBuilder。如果长度可用,我如何用流的大小初始化StringBuilder? 这些(根据您的专业意见)是好主意吗?过去,我从Streams读取内容时遇到了一些问题,因为它总是会丢失最后几个字节或其他内容,但是如果是这种情况,我会问另一个问题。

24
最佳的免费文本编辑器,支持*多于* 4GB的文件?[关闭]
关闭。此问题不符合堆栈溢出准则。它当前不接受答案。 想改善这个问题吗?更新问题,使其成为Stack Overflow的主题。 5年前关闭。 已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 我正在寻找一个文本编辑器,可以将4+ GB的文件加载到其中。文本板不起作用。我拥有它的副本,并且去过它的支持站点,只是没有这样做。也许我需要新的硬件,但这是一个不同的问题。编辑器必须是免费的,或者,如果要花我钱,则不超过30美元。对于Windows。

2
HTML5-如何流式传输大的.mp4文件?
我正在尝试设置一个非常基本的html5页面,该页面会加载20MB的.mp4视频。看来,浏览器需要下载整个内容,而不仅仅是播放视频的第一部分并在其余部分进行流传输。 这篇文章是我在搜索时发现的最接近的内容...我尝试了“手刹”和“数据转弯”,但两者均未发挥作用: 关于如何执行此操作或是否可行的任何想法? 这是我正在使用的代码: <video controls="controls"> <source src="/video.mp4" type="video/mp4" /> Your browser does not support the video tag. </video>

13
如何在Windows上阅读大文本文件?[关闭]
关闭。此问题不符合堆栈溢出准则。它当前不接受答案。 想改善这个问题吗?更新问题,使其成为Stack Overflow的主题。 5年前关闭。 改善这个问题 我有一个很大的服务器日志文件(〜750 MB),无法用记事本或Notepad ++打开(它们都说文件太大)。 谁能建议一个程序(对于Windows)一次只能将文件的一小部分读到内存中的程序? 还是我需要编写自己的应用来解析此文件?

4
python:从压缩的文本文件中读取行
使用python从gz压缩的文本文件中读取一行很容易,而无需完全提取该文件?我有一个大约200mb的text.gz文件。当我提取它时,它变成7.4gb。这不是我必须阅读的唯一文件。对于整个过程,我必须读取10个文件。尽管这将是一个顺序的工作,但我认为在不影响全部信息的情况下做到这一点将是明智之举。我什至不知道有可能。如何使用python完成?我需要逐行阅读文本文件。


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.