Questions tagged «backup»

制作数据副本,以便可以将副本用于在数据丢失事件后恢复原始数据,或用于历史保留。

9
为什么备份事务日志如此重要?
我们目前正在为客户端实施备份解决方案,而他们的ERP解决方案使用SQL Server。 ERP解决方案是由另一家公司建立的。而且他们告诉我,备份和截断事务日志是超级重要。 我一直在阅读此事务日志,但无论如何我已经备份了整个计算机时,我不明白为什么这是如此重要(我们使用的是ArcServe UDP,它知道SQL Server并使用VSS)。据我了解,SQL Server VM上的清理任务已经在处理截断日志,但是,UDP也允许SQL Server日志截断。 据我了解,事务日志可用于还原损坏的数据库,因为它是所有事务的日志。但是我已经有整个数据库的每小时备份,那么,为什么我会关心呢?

3
如何保存:每周备份一次,每周备份一个月,每月备份一年,之后每年备份一次
我每天需要备份此服务器上的数据和配置文件。我需要保持: 一周的每日备份 每周备份一个月 一年的每月备份 之后每年备份 所有这些都是通过每天从cron运行的shell脚本完成的。 这是运行10年后备份文件的外观: blog-20050103.tar.bz2 blog-20060102.tar.bz2 blog-20070101.tar.bz2 blog-20080107.tar.bz2 blog-20090105.tar.bz2 blog-20100104.tar.bz2 blog-20110103.tar.bz2 blog-20120102.tar.bz2 blog-20130107.tar.bz2 blog-20130902.tar.bz2 blog-20131007.tar.bz2 blog-20131104.tar.bz2 blog-20131202.tar.bz2 blog-20140106.tar.bz2 blog-20140203.tar.bz2 blog-20140303.tar.bz2 blog-20140407.tar.bz2 blog-20140505.tar.bz2 blog-20140602.tar.bz2 blog-20140707.tar.bz2 blog-20140728.tar.bz2 blog-20140804.tar.bz2 blog-20140811.tar.bz2 blog-20140816.tar.bz2 blog-20140817.tar.bz2 blog-20140818.tar.bz2 blog-20140819.tar.bz2 blog-20140820.tar.bz2 blog-20140821.tar.bz2 blog-20140822.tar.bz2
14 linux  backup  bash 

4
备份期间如何限制光盘的I / O?
我有一个cron,基本上可以在夜间执行简单的“ tar zcf”操作。 服务器具有: 8核-Intel(R)Xeon(R)CPU E5606 @ 2.13GHz 25GB RAM Ubuntu 12.04.2 LTS 带有两个2.728TB硬盘驱动器的硬件RAID 1(LSI Logic / Symbios Logic MegaRAID SAS SMC2108) 如您在监视屏幕主机上看到的: http://clip2net.com/s/57YRKP 在tar的几乎所有时间内,磁盘I / O都会超过90%,并使所有其他应用程序(mysql,apache)的运行速度大大降低。 2个问题: 在备份期间拥有如此高的磁盘I / O是否正常? 有没有一种方法可以限制光盘的I / O,以便其他应用程序可以继续正常工作? 谢谢!

4
为什么公司仍然使用磁带驱动器?[关闭]
按照目前的情况,这个问题并不适合我们的问答形式。我们希望答案得到事实,参考或专业知识的支持,但是这个问题可能会引起辩论,争论,民意调查或扩展讨论。如果您认为此问题可以解决并且可以重新提出,请访问帮助中心以获取指导。 7年前关闭。 我找到了,但这并不能真正回答我的问题。 甚至在1-2 TB范围内的磁盘也比磁带便宜得多,但是我看到Google使用磁带驱动器进行备份。它们(磁盘)的主要缺点是什么?我可以想像某种磁盘“库”,它只是一堆插槽,您可以将SATA磁盘滑入其中。
14 backup  tape 

5
支持btrfs的备份解决方案
随着btrfs于本月14日在Oracle EL上投入生产(连同fsck的工作和Linux 3.2的清理),我正在考虑重新设计当前的备份解决方案以利用它。请注意,我正在考虑对少于10TB的少量数据进行处理,这是相当静态的(每天少于1%的更改)。简而言之,是SMB / SOHO备份解决方案。 备份应该做什么: 在生产服务器上执行ext [234] / XFS / JFS的LVM快照 rsync/将更改的数据传输到备份服务器上的btrfs 快照btrfs文件系统 可用空间不足时删除旧快照 优点: 所有文件都很容易获得,不需要解压缩或循环安装 过去的快照也很容易获得... ...所以我可以将它们共享为只读Samba共享(支持卷影复制) 由于写时复制,快照占用的空间极小(快照无需更改即可占用磁盘上很少的KiB) 高度备份一致性:文件校验和,清理所有数据和内置冗余 问题: 是否有一些备份解决方案(以Bacula,BackupPC等形式)可以轻松实现写时复制文件系统的意识? 还是需要使用家庭rsync解决方案? 拥有专用于备份的ZFS盒的人如何备份他们的Linux机器?

3
Amazon EC2备份策略
我有几个使用Amazon EC2的Web服务器/数据库服务器设置。我目前正在为所有系统和EBS驱动器制作每日快照,其中包含我的所有应用程序文件,数据库文件,源代码和数据库备份。我有一个控制台应用程序,可以按计划运行备份创建。我的图像是EBS图像。 我正在执行一项任务,将在这么多天后删除快照。我想我的问题是,是否还应该安排完整的图像/ EBS任务?这样,如果服务器发生故障或损坏,我可以启动最新映像,然后应用最新快照。 在制定备份策略时,我正在使用Jungle Disc备份数据光盘。

6
按预算实现永不过时的MySQL备份
我当前的MySQL备份方案是将数据库复制到第二台服务器,并在该服务器上运行mysqldump,以删除表或行锁定中的所有停机时间。这工作得很好,但是第二台服务器每月的费用为150美元(澳大利亚主机比美国贵得多。) 我在这里读到很多问题,大多数人都需要计划备份的帮助,而这不是我所需要的。我需要没有停机的mysqldump(最好是每4小时)。db是未压缩的〜7GB,因此mysqldump可能需要一些时间,具体取决于服务器。 我曾考虑过复制到同一台机器上,但是我不希望奴隶吃掉急需的内存。我不确定我是否可以限制每个数据库的内存使用量?无论哪种方式,这都会在服务器转储数据库时给服务器增加负载。 我刚刚读了这个http://www.zmanda.com/quick-mysql-backup.html,它看起来不错,每年$ 300可以,可以为我省很多钱。 不幸的是,我无法复制到Amazon的RDS,但可以复制到微型RC2实例,但是复制将通过网络进行,并且ping约为220毫秒。 我在这里看到一些人在谈论LVM快照,这可能是一个不错的选择。我对这个选项不了解很多。 意见将不胜感激。

7
您如何备份存储服务器?
我正在考虑实现一个非常大的存储服务器,以用作其他几台服务器(均基于Linux)的实时NAS。 总的来说,我的意思是在4TB到20TB之间的可用空间(尽管我们不太可能实际将其变为20TB)。 为了提高数据安全性和性能,存储服务器将使用RAID 10,但我们仍然需要一个备份解决方案,包括异地备份。 我的问题是:您如何备份那么多数据! 并不是说我只能连接便携式硬盘驱动器并传输文件。我们目前没有其他具有如此大存储空间的设备。 我是否需要预算第二个异地存储服务器,还是有更好的解决方案?

5
对于大文件,请先压缩,然后再传输或rsync -z?哪个最快?
我有大量的相对论小数据文件,但它们占用约50 GB的空间,我需要将它们传输到另一台计算机上。我试图考虑最有效的方法。 我以前的想法是先将整个内容压缩为gzip,然后对其进行rsync和解压缩,然后依靠rsync -z进行压缩,然后使用gzip然后使用rsync -z。我不确定哪种方法最有效,因为我不确定rsync -z的实现方式。关于哪种选择最快的任何想法?

5
同步非常大的文件夹结构
我们的Intranet上有一个文件夹结构,其中包含大约800,000个文件,分为大约4,000个文件夹。我们需要将其同步到DMZ中的小型计算机集群。结构的深度很浅(从不超过两个深度)。 大多数文件永远不会改变,每天都有几千个更新文件和1-2 000个新文件。数据是在已清除源数据的地方维护的历史报告数据(即,这些是最终报告,其源数据足够旧,我们可以将其存档和删除)。鉴于每天同步一次可以在合理的时间范围内进行,因此每天同步一次就足够了。报告是在一夜之间生成的,我们将早晨的第一件事作为计划任务同步。 显然,由于很少有文件定期更改,因此我们可以从增量复制中受益匪浅。我们已经尝试过Rsync,但是仅完成“构建文件列表”操作就可能需要八到十二个小时。显然,我们正在迅速超越rsync的功能(12小时的时间框架太长了)。 我们一直在使用另一个名为RepliWeb的工具来同步结构,它可以在大约45分钟内进行增量传输。但是,似乎我们已经超过了它的极限,它开始看到文件在没有删除时显示为删除(也许某些内部存储器结构已经用完,我们不确定)。 还有其他人遇到过这种大规模的同步项目吗?是否有设计用于处理此类大型文件结构以进行同步的工具?

11
您如何进行异地硬盘备份?
我已经进行了一段时间的硬盘备份,我相信很多人也这样做,但是在寻找更好的方式将它们存储到异地时遇到了麻烦。我想知道你们那里是如何做到的。异地存储时,任何策略或提示与技巧都将存储您的备份,主要是硬盘驱动器而不是磁带。 提前致谢。 [更新]感谢您提到在线备份。我们实际上正处于此过程的中间。我100%同意这是最终的方法。但是,考虑到成本,有时可能不是一个选择,因为如果您还考虑应用程序级别,这是一个非常昂贵的选择。我猜在线备份在单独的主题中可能是一个很好的备份。:)
14 backup 

3
如何使用mysqldump创建只读MySQL用户以进行备份?
我正在使用automysqlbackup脚本来转储我的mysql数据库,但是我想拥有一个只读用户来执行此操作,以便不将我的根数据库密码存储在纯文本文件中。 我已经创建了一个这样的用户: grant select, lock tables on *.* to 'username'@'localhost' identified by 'password'; 当我运行mysqldump(通过automysqlbackup或直接运行)时,收到以下警告: mysqldump: Got error: 1044: Access denied for user 'username'@'localhost' to database 'information_schema' when using LOCK TABLES 我做错了吗?我的只读用户是否需要其他资助?还是只能root锁住information_schema桌子?这是怎么回事? 编辑: GAH,现在可以使用了。我以前可能没有运行过FLUSH PRIVILEGES。 顺便说一句,这种情况多久自动发生一次? 编辑: 不,它不起作用。mysqldump -u username -p --all-databases > dump.sql手动运行不会产生错误,但不会转储information_schema。automysqlbackup确实会引发错误。

5
RSYNC如何执行增量备份
如何rsync知道哪些文件已更改,哪些未更改?它是否将数据记录在文件中的任何位置? 因为我要进行增量备份,但首先它将传输所有文件。 所以我的主要问题是:是否通过FTP上传初始文件,而不是通过rsync。请问rsync仍然跳过那些已存在的文件,否则将上载在第一次运行的一切。
14 backup  rsync  sftp 

19
通过Windows网络传输大文件的最简单,最快的方法是什么?
我有一台运行MS SQL Server的Window Server 2000计算机,该计算机存储了20GB以上的数据。每天将数据库备份到第二个硬盘驱动器。我想将这些备份文件转移到另一台计算机上,以构建另一台测试服务器并进行恢复练习。(备份实际上从未恢复过将近5年。请不要告诉我的老板!) 我无法通过网络传输大文件。我已经尝试过简单的网络复制,apache下载和ftp。当传输的数据量达到2GB时,我尝试的任何方法最终都会失败。我上一次成功传输文件是通过USB连接的外部硬盘驱动器。但是我想定期执行此任务,最好自动执行。 想知道这种情况下最实用的方法是什么?

2
如何大规模备份Gitlab?
当询问Gitlab支持如何在本地Gitlab上进行3TB备份时,他们会使用我们的产生压缩包的工具进行答复。 这在所有层面上都对我来说是错误的。这个压缩包包含postgres转储,docker映像,回购数据,GIT LFS等配置。备份TB的静态数据以及KB的非常动态的数据不会正确。接下来是我们要每小时备份一次的问题。 题 我真的很想从别人那里知道他们是如何做到的,以获得一致的备份。 如果这是解决方案的一部分,那么Linux上的ZFS对我来说会很好。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.