Questions tagged «corruption»

13
错误0x80070570:如何删除损坏且无法读取的文件?
在我的系统分区上,我有一个无法删除的文件夹。该文件夹是通过从Acronis TrueImage备份还原文件而创建的。 错误消息显示: 错误0x80070570:文件或目录已损坏且无法读取。 chkdsk /r /f多次启动时我已经尝试运行,但是问题仍然存在。 还有其他我可以尝试解决此问题的实用程序或chkdsk选项吗?

7
如何强制MySQL表损坏?
我编写了一个简单的Nagios插件,该插件调用mysqlcheck(用于检查损坏的表),如果有损坏,则会发出警告。 但是我的表现在都没有损坏。所以我不是100%肯定我的插件能正常工作。我有一个开发服务器,它并不缺少关键。如何强制其中一个(或任何一个)表损坏,以便测试我的nagios警报? 作为记录,服务器是Ubuntu Dapper,而mysql是版本5.0

1
无法使用fsck解决数据损坏警告
为了为文件系统创建一个连续的空间,我在sda1处创建了一个新的EFI系统分区,以便可以从sda5的当前分区迁移它。除了警告说: 内核:FAT-fs(sda1):未正确卸载卷。某些数据可能已损坏。请运行fsck。 当我第一次创建EFI分区时,我没有注意到已经存在两天的警告。我卸载文件系统并执行文件系统检查,如下所示: # umount /dev/sda1 # fsck -V /dev/sda1 fsck from util-linux 2.24 [/sbin/fsck.vfat (1) -- /boot/efi] fsck.vfat /dev/sda1 fsck.fat 3.0.24 (2013-11-23) 0x25: Dirty bit is set. Fs was not properly unmounted and some data may be corrupt. 1) Remove dirty bit 2) No action ? 1 Leaving filesystem …

3
有没有一种方法可以保护SSD避免由于断电而损坏?
我们有一组消费者终端,这些终端装有Linux,本地Web服务器和PostgreSQL。我们正在获取有关存在问题的计算机的现场报告,经过调查,似乎断电了,现在磁盘出现了问题。 我以为问题只是数据库损坏了,或者最近更改的文件被打乱了,但是还有其他奇怪的报告。 权限错误的文件 已成为目录的文件(例如,index.php现在是目录) 已成为文件的目录 数据混乱的文件 数据库损坏有一些问题,但这是我可以预期的。更令我惊讶的是更基本的文件系统问题-例如,权限或将文件更改为目录。在最近没有更改的文件(例如,软件代码和配置)中也出现了问题。 这是SSD损坏的“正常”现象吗?最初,我们认为这是在某些便宜的SSD上发生的,但我们在一个名牌(消费级)上发生这种情况。 FWIW,我们不会在不干净的引导上执行autofsck(不知道为什么-我是新手)。我们在某些位置安装了UPS,但有时操作不正确等。应该解决此问题,但是即使那样,人们也可以不干净地关闭终端电源,等等。因此,这并非万无一失。文件系统是ext4。 问题是:我们有什么办法可以减轻系统级的问题? 我发现一些文章涉及关闭硬件缓存或以同步模式安装驱动器,但是我不确定在这种情况下是否有帮助(元数据损坏和最近的更改)。我还阅读了有关以只读模式挂载文件系统的参考。我们不能这样做,因为我们需要编写,但是如果可以的话,我们可以为代码和配置创建一个只读分区。 这是驱动器的示例sudo hdparm -i /dev/sda1: Model=KINGSTON RBU-SMS151S364GG, FwRev=S9FM02.5, SerialNo=<deleted> Config={ Fixed } RawCHS=16383/16/63, TrkSize=0, SectSize=0, ECCbytes=0 BuffType=unknown, BuffSize=unknown, MaxMultSect=16, MultSect=16 CurCHS=16383/16/63, CurSects=16514064, LBA=yes, LBAsects=125045424 IORDY=on/off, tPIO={min:120,w/IORDY:120}, tDMA={min:120,rec:120} PIO modes: pio0 pio3 pio4 DMA modes: mdma0 mdma1 mdma2 UDMA modes: udma0 …


4
水银资料库损坏
这在某种程度上与这个问题有关,但是是一个不同的问题。 我们有一个中央汞库,可通过SSH和mercurial-server向用户提供服务。我们有许多Mac,Linux和Windows客户端连接到它。 现在,有两次Windows用户之一损坏了他们的存储库,然后又将其推回了中央,从而破坏了它的存储库。我想在中央存储库上编写一个传入的钩子脚本,以防止如果事务会破坏中央存储库而被接受。 尽管不幸的是,我对Mercurial的了解还不足以编写这样的脚本。有人遇到过这种可能性吗?我个人不太确定为什么hg在默认情况下不这样做。

4
显然,Robocopy无法理解Windows Server 2016重复数据删除。有没有一种方法可以使其在不损坏音量的情况下正常工作?
场景: 按照此服务器故障指南,将服务器从旧的Server 2008 R2迁移到新的Server 2016:使用Robocopy进行文件服务器迁移 Robocopy完成后,在Server 2016上为复制的卷启用重复数据删除,然后使用PowerShell手动启动重复数据删除。数小时后,它完成并恢复了大约25%的磁盘空间。 再次运行Robocopy以复制初始副本中可能遗漏的所有内容,作为对新服务器的最终检查。 ....但是Robocopy(从Server 2016运行)不了解重复数据删除,因此会继续删除重复数据删除存储块。 ------------------------------------------------------------------------------- ROBOCOPY :: Robust File Copy for Windows ------------------------------------------------------------------------------- Started : Sunday, July 8, 2018 12:10:02 PM Source : \\SERVER-2008\e$\ Dest : \\SERVER-2016\e$\ Files : *.* Options : *.* /TEE /S /E /COPYALL /PURGE /MIR /ZB /NP /MT:32 /R:1 /W:10 …

4
如何在随机断电的机器上存储数据
我有一个在物理机主机上运行的虚拟机(Debian)。虚拟机充当其在本地网络上频繁接收的数据的缓冲区(该数据的周期为0.5s,因此吞吐量相当高)。接收到的所有数据都存储在虚拟机上,并通过UDP反复转发到外部服务器。外部服务器确认(通过UDP)它已接收到数据包后,原始数据将从虚拟机中删除,然后不再发送到外部服务器。连接虚拟机和外部服务器的Internet连接不可靠,这意味着一次可能会断开几天。 托管VM的物理机每天随机几次断电。无法判断何时会发生这种情况,并且无法在系统中添加UPS,电池或类似解决方案。 最初,数据存储在虚拟机上基于文件的HSQLDB数据库中。但是,频繁的断电最终会导致数据库脚本文件损坏(不是在文件系统级别,即可读,但HSQLDB无法理解),这引发了我的问题: 数据应该如何存储在经常断电且经常发生的环境中? 我可以想到的一种选择是使用平面文件,将每个数据包另存为文件系统上的文件。这样,如果由于断电而损坏了文件,则可以忽略该文件,其余数据保持不变。但是,这带来了一些问题,主要与可能存储在虚拟机上的数据量有关。每条数据之间的间隔为0.5s,将在10天内生成1,728,000个文件。这至少意味着使用具有增加的inode数量的文件系统来存储此数据(当前文件系统设置用尽了大约250,000条消息和30%的磁盘空间使用了inode)。而且,很难(不是不可能)进行管理。 还有其他选择吗?是否有在Debian上运行且不会因断电而损坏的数据库引擎?此外,应为此使用什么文件系统?ext3是目前使用的。 虚拟机上运行的软件是使用Java 6编写的,因此希望该解决方案不会兼容。

4
当我杀死-9或拔出电源时,究竟*到底是什么被弄砸了?
设定 我已经当了很长时间的程序员,但是我对深层的内部东西还是有点模糊。 现在。我很清楚,这不是一个好主意: 杀死-9个进程(坏) 自发拔出正在运行的计算机或服务器上的电源插头(更糟) 但是,有时您只是必须这样做。有时,无论您做什么,一个进程都不会响应,有时,无论您做什么,一台计算机都不会响应。 假设系统通过mod_wsgi运行Apache 2,MySQL 5,PHP 5和Python 2.6.5。 注意:我对Mac OS X最感兴趣,但是与任何UNIX系统相关的答案都可以帮助我。 我的顾虑 每次我必须执行其中之一,尤其是第二次时,我很担心一段时间内某些东西已损坏。某处的某些文件可能已损坏-谁知道哪个文件?计算机上有超过1,000,000个文件。 我经常使用OS X,因此我将通过“磁盘工具”运行“验证磁盘”操作。它不会报告任何问题,但是我仍然对此表示关注。 如果某个地方的配置文件搞砸了怎么办。甚至更糟的是,如果某个地方的二进制文件损坏了怎么办。或者某个脚本文件现在已损坏。如果某些硬件损坏了怎么办? 如果直到下个月(在严重的情况下)腐败或破坏造成灾难的情况下我仍未找到答案,该怎么办? 或者,如果有价值的数据已经丢失怎么办? 我的希望 我希望这些担心和担忧是没有根据的。毕竟,经过多次这样的尝试,还没有发生真正的坏事。最糟糕的是我不得不修复一些MySQL表,但是我似乎没有丢失任何数据。 但是,如果我的担心不是没有根据的,并且在情况1或2中都可能发生真正的损害,那么我希望有一种方法可以检测到并防止这种情况发生。 我的问题 难道是因为现代操作系统旨在确保在这些情况下没有损失?可能是因为现代软件旨在确保没有损失吗?那么现代硬件设计呢?拔下电源插头时有哪些措施? 我的问题是,对于这两种情况,究竟会出现什么错误,应采取哪些步骤加以解决? 我的印象是,可能出错的一件事是某些程序可能没有将其数据刷新到磁盘,因此应该将任何最新的数据写入磁盘(例如,上电前几秒钟) )可能会丢失。但是除此之外呢?而这个5秒钟的数据丢失问题是否会破坏系统? 隐藏在硬盘驱动器上巨大文件林中某个地方的随机文件损坏怎么办? 硬件损坏怎么办? 什么对我最大的帮助 当您终止-9个进程或拉动整个系统的电源时,内部发生的情况的详细说明。(似乎是即时的,但是有人可以替我放慢速度吗?) 在这些情况下,所有可能出错的事情的解释,以及(当然是)大概的概率(即,这种可能性很小,但这很可能)... 描述了现代硬件,操作系统和软件中为防止发生这些情况而造成的损坏或破坏的措施。(安慰我) 有关在“验证磁盘”之外执行杀死-9或上电后执行操作的说明,以真正确保驱动器上某处没有损坏或损坏。 可以采取的加强计算机设置的措施,以便如果必须杀死某些物品或必须切断电源,则可以减轻任何潜在的损坏。 有关二进制文件的一些信息-apache二进制文件或某个库的中间是否有一个随机字节或两个损坏,这是不是真的,直到以后才会出现并引起问题?我如何向自己保证这不是由于拉力或杀死而导致的? 非常感谢!

2
防止SD卡损坏
我的嵌入式linux设备使用SD卡来保存某些诊断数据,对于内部闪存而言这太丰富了。 问题是,如果设备意外关闭,则卡上的文件系统(FAT32)已损坏。 无法防止意外断电或用户将其关闭,该设备应相对免维护。更糟糕的是,数据是连续写入的,因此损坏非常频繁,并且Linux在检测到故障FS时会以静默方式将其重新装入只读状态。 您会建议采用哪些方法来减轻这种情况?在启动时自动运行fsck.vfat是否足够? 更多信息: 该卡不被用户视为可移动。可以将其视为内部磁盘。存储在上面的任何数据都可以通过网络或USB驱动器下载,系统会自动清除最早的条目。这意味着它不需要在普通PC上可读。 该系统当前支持FAT,yaffs和jffs2。可以在内核中添加其他文件系统,但是如果存在其他途径,我们最好先使用它们。 可以按需暂停写入,即使几分钟也不会丢失数据。 可接受部分数据丢失或轻微损坏。不是完全停止日志记录。 在大多数情况下,关闭电源事件是完全不可预测的。 该系统在ARM9、200MHZ,64MB RAM,32M​​B内部闪存上运行,并在其主要角色上消耗了大部分CPU电源。在考虑花哨的大量资源解决方案时要考虑到这一点。

4
如何为(相对)大文件使用rsync修复损坏的数据包错误?
尝试使用以下rsync命令更新服务器上的文件: rsync -ravq -e "ssh -o ConnectTimeout=2 -o ServerAliveInterval=2 -ServerAliveCountMax=2" --delete ./local_dir user@$SERVER:/dest_dir corrupt packet 错误不断抛出,特别是: rsync: writefd_unbuffered failed to write 4092 bytes to socket [sender]: Broken pipe (32) rsync: connection unexpectedly closed (11337 bytes received so far) [sender] rsync error: unexplained error (code 255) at /home/lapo/package/rsync-3.0.9-1/src/rsync-3.0.9/io.c(605) [sender=3.0.9] 这可能与ssh超时有关,因为它似乎在large(r)文件中发生。另外,我一直在使用WinSCP超时。这只发生在我身上;与我一起使用该服务器的几个人没有相同的问题。 使用rsync从Windows …

4
nginx + fastCGI + Django-在发送给客户端的响应中出现数据损坏
我正在使用FastCGI在nginx后面运行Django。我发现在发送给客户端的某些响应中,响应的中间发生了随机数据损坏(中间可能有数百个字节左右)。 在这一点上,我将其范围缩小为Nginx的FastCGI处理程序或Django的FastCGI处理程序中的错误(即,可能是flup中的错误),因为当我在独立(即runserver)模式下运行Django服务器时,永远不会发生此问题。它仅在FastCGI模式下发生。 其他有趣的趋势: 它倾向于在较大的响应上发生。客户端首次登录时,将向他们发送一堆1MB的块,以将其同步到服务器DB。第一次同步后,响应要小得多(通常一次只有几个KB)。损坏似乎总是发生在开始时发送的那些1MB数据块上。 当客户端通过LAN连接到服务器时(即低延迟,高带宽连接),这种情况会更经常发生。这使我认为Nginx或flup中存在某种竞争状况,而这种竞争状况会由于数据速率的提高而加剧。 现在,我不得不通过在响应头中放置一个额外的SHA1摘要来解决此问题,并让客户端拒绝响应头与主体校验和不匹配的响应,但这是一种可怕的解决方案。 是否有其他人经历过类似的事情,或者是否有任何指示如何确定是flup还是nginx在这里出了问题,所以我可以向相应的团队提交错误报告? 在此先感谢您的帮助。 注:我也张贴了类似的错误在lighttpd的FastCGI的+ + Django的一段时间回到这里:/programming/3714489/lighttpd-fastcgi-django-truncated-response-sent-to-client-due-to -意想不到的 ...即使这不是同一件事(截断还是损坏),它也开始看起来是罪魁祸首是flup / Django而不是Web服务器。 编辑:我还应该注意我的环境是: Mac Mini上的OSX 10.6.6 Python 2.6.1(系统) Django 1.3(来自官方tarball) flup 1.0.2(来自flup网站上的Python egg) nginx + SSL 1.0.0(来自Macports) 编辑:为响应Jerzyk的评论,汇编响应的代码路径如下所示(为简洁起见进行了编辑): # This returns an objc NSData object, which is an array.array # when pushed through the PyObjC bridge ret …

2
防止掉电时ext4 / Linux驱动器上的数据损坏
我有一些运行美国Megatrends bios的嵌入式板,并且以嵌入式linux作为操作系统。我的问题是,工业闪存的电源损耗会损坏。我将它们格式化为ext4。每当发生这种情况时,我通常都可以使用fsck修复闪存,但这在我们的部署中是不可能的。我听说禁用写缓存应该会有所帮助,但是我不知道该怎么做。另外,还有什么我应该做的? 更多信息 该驱动器是一个4GB的IDE闪存模块。我有一个分区是ext4。该操作系统安装在该分区上,而grub是我的引导程序。 fdisk -l显示/ dev / sda为我的闪存模块,而/ dev / sda1为我的主分区。 断电后,我通常无法完全通过启动init脚本来实现。 将驱动器安装在另一台PC上时,我运行fsck / dev / sda1。它总是显示类似 "zero datetime on node 1553 ... fix (y)?" 我修复了它们,并且可以正常启动,直到下一次断电为止。 明天我到办公室时,我将发布fdisk -l的实际输出 这就是我对系统工作原理的全部了解。我不是系统人员,而是一名软件工程师,习惯于陷入工作描述之外的困境。我知道如何格式化驱动器,安装引导加载程序,编写软件以及如何在操作系统上进行破解。 这是dumpe2fs的输出 #sudo dumpe2fs /dev/sda1 dumpe2fs 1.41.12 (17-May-2010) Filesystem volume name: VideoServer Last mounted on: / Filesystem UUID: 9cba62b0-8038-4913-be30-8eb211b23d78 Filesystem magic …

3
突然大量文件系统损坏的原因?(“根索引节点不是目录”)
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为服务器故障的主题。 5年前关闭。 我有一台笔记本电脑运行Maverick(很高兴直到昨天),并带有Patriot Torx SSD。整个分区的LUKS加密;最重要的是一个LVM物理卷;然后在此基础上将根目录和根目录放在ext4逻辑卷中。 昨天我尝试引导它时,它抱怨无法安装根文件系统。运行fsck,基本上每个inode似乎都是错误的。起始文件系统和根文件系统都显示类似的问题。检查备份超级块无济于事。 e2fsck 1.41.12 (17-May-2010) lithe_root was not cleanly unmounted, check forced. Resize inode not valid. Recreate? no Pass 1: Checking inodes, blocks, and sizes Root inode is not a directory. Clear? no Root inode has dtime set (probably due to old mke2fs). Fix? …
8 linux  ssd  corruption  fsck  ext4 

3
如何损坏文件系统
我将在某些大型文件系统(大约50 TB)上测试“ xfs_repair”,因为过去内存使用率很高。虽然我只能在正确的文件系统上测试程序,但是在损坏的系统上测试它们会很好。 因此,破坏文件系统的最佳方法是什么。如果该方法每次都重复给出相同的损坏,则表示额外的信誉。 让人们了解我在2006年的意义ish “要在多TB的文件系统上成功检查或运行修复,您需要: 一台64位机器 一个64位的xfs _修复/ xfs _检查二进制文件 每TB文件系统约2GB RAM 文件系统中每百万inode 100-200MB RAM。 xfs_repair通常使用的内存少于此数量,但是这些数字为您提供了一个修理数字,说明已修复80%以上的大型文件系统需要什么。 FWIW,上一次内部出现此问题时,有问题的29TB文件系统需要约75GB的RAM +交换来修复。”

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.