Questions tagged «backup»

制作数据副本,以便可以将副本用于在数据丢失事件后恢复原始数据,或用于历史保留。

5
加密的异地备份-在哪里存储加密密钥?
除了常规的现场备份(保存在防火保险箱中)之外,我们还每月将磁带外发一次,并使用AES加密。因此,如果我们的站点一天被外来热气气化,则至少应该有一个最近的备份可以恢复。 除了128位加密密钥仅在现场存储。因此,在真正的灾难情况下,实际上我们将只剩下一个加密的备份,而无法解密。 问题:在异地存储加密密钥的最佳策略是什么? 无论选择哪种方法,都需要通过安全审核,因此“在家保留副本”是不够的,而“用异地磁带保存”显然会破坏首先加密它们的目的!我们正在考虑的选择包括: 银行保险箱 以密码保护的形式(例如,使用Keepass或Password Safe这样的软件)存储在云中或地理上独立的网络中 当然,第二种选择提出了另一个问题:我们如何保持该密码的安全。

5
防止挂载失败时根系统填满的最佳方法?
我们有一个内部Web服务器(虚拟化,托管ReviewBoard,但不是超级相关),并且我们有一个相对一致的故障模式,其中NFS挂载失败导致/填满。Distro是Ubuntu(不要问),如果解决方案取决于其他发行版,则实施起来会较慢。 正在执行到/ mnt / backup /的备份,该备份应该将NFS挂载到另一个系统。不幸的是,当挂载失败或丢失时,备份将在根文件系统上执行,您可以想象它不会花很长时间就/充满,然后服务开始失败。 已经讨论了许多可能的解决方案。 监视/ mnt / backups并确保它不是root用户。也许是一个cron工作。 使用/ mnt / protected / backups,然后将/ protected首先安装到小型文件系统,也许是循环安装到本地文件,因此发生故障的可能性要小得多。 Chmod a-rwx / mnt / backups(根文件系统安装点)。我不确定是否可以安装在受保护的控制器上,我认为可以。 在安装的树上,创建一个名为“ Backups”的目录,然后创建一个软链接“ ln-s / mnt / backup / Backups / Backups”。除非安装了/ mnt / backup,否则使用/ Backups进行备份将失败,因为本地树不包含子目录。 检查备份脚本中是否正确安装了目录。 我对有关这些方法的任何反馈意见,利弊或人们用作保护根文件系统免遭这种麻烦的标准方法的任何其他技术感兴趣。

7
长期存储业务关键数据
这是一个非常棘手的问题,在某种程度上不是技术问题,可能不属于这里,但 服务器故障适用于系统管理员...他们以专业身份管理或维护计算机 我这样做..这是我的任务之一..总之。 假设您有5000张A4双面纸。公司数据,对所有业务至关重要。 您需要以某种方式备份它。到目前为止,建议的解决方案是: PDF->在线存储 PDF-> DVD /蓝光/磁带 PDF->便携式HDD / SSD /闪存驱动器。 购买/租赁/租用/“偷”一台大型复印机,然后进行复印。 ??? 上面的直接问题: 如果存储合作伙伴破产了怎么办? DVD会随着时间的流逝而腐烂。磁带也是如此。 这些也是随着时间的流逝。 昂贵。慢。重。不是树友。 问题: 中长期数据保存和归档的黄金标准是什么?您在工作场所解决过类似的问题吗? 初始加载后,有一些要求每月增加大约100页。检索应该很容易,但可能很少。 理想情况下,我想保证该解决方案在离开公司后很长时间就可以使用,并且不需要大量费用即可保持其可维护性,因此存储许多DVD不仅不​​理想,而且也不可行一个好的长期解决方案。 虽然仅打印纸质副本当然是最容易的,但它并不是最环保的方法,而且距离很远。它也不是很容易管理,很难搜索,索引等等。加之笨重,且难以物理存放。 我非常喜欢将所有内容都以电子方式存储的想法,但是执行此操作的实际机制需要透明且容易。我真的不想对这一天一夜的事情负责,在办公室用户忙碌起来并丢失文件时为其提供支持。我也不想依赖单一的存储供应商,如果Dropbox(我们有一个在线备份解决方案ATM,但不是Dropbox。)破产了,或者经历了一场灾难性的事件,那有多少家企业该怎么办?谁在使用他们的服务? 这里有一些预算灵活性,但是我怀疑任何比我们当前的在线备份花费更多的东西(每年2500美元),与将其放在床下的鞋盒中相比,都不会被看好。如果我什么都不做,明天就辞职,那将是毫无疑问的。 有任何想法吗? -编辑- 这样做的原因有两个。 1)在办公室烧毁的情况下,为业务关键文书提供明智的安全备份。 2)满足企业的数据归档法律WRT uk税法等。 编辑2: 拥有某种索引文档的机制也将非常有用。
16 backup 

6
具有成本效益的视频和图像数据的长期存档?约50 TB
我的实验室正在建立一个小型服务器,该服务器存储着我们小组正在处理的项目的数据(主要是视频和图像数据以及一些文档)。从历史上看,在一个研究项目结束之后,数据偶然地最终存储在一个硬盘或一大堆DVD(或旧时代的CD)中,和/或某些视频最终存储在Sony DV卡带中,甚至VHS磁带(自90年代初以来一直活跃于该实验室),或上述所有物质的混合物... 问题:(1)将它们全部合并到相同格式和存储介质中的最佳方法是什么,(2)对于偶尔访问(例如30年以上)的此类数据进行长期归档的最佳介质是什么?不幸的是,我们没有企业级的预算(我们只是一个约10人的实验室),因此不能做花费数十万美元的事情。 谢谢! PS考虑到我们的旧视频和图像分辨率较小,但最近的图像和图像分辨率很高,我认为我们正在谈论的是真正的旧数据为30〜40 TB,最近的数据为10〜20 TB,然后每年增加约5 TB 。

3
磁带加密管理和最佳实践
我想在所有备份磁带上启用加密。我或多或少都知道如何从技术上做到这一点,但是实现这一点的程序和人为因素却很棘手。 我将HP LTO4驱动器与bacula一起使用,该驱动器没有任何密钥管理功能。实际上,它对硬件加密的支持是调用外部脚本,该脚本在读写之前在驱动器上设置密钥。 我的问题: 我应该如何跟踪已加密的磁带?我已经有几百个没有加密的磁带。即使我花时间用加密将它们全部重写,也会有几个月的重叠,有些重叠,有些没有。bacula如何在读取给定磁带之前知道是否设置密钥?即使设置了密钥,驱动器是否也足够智能以读取未加密的磁带? 如果密钥被泄露,我们将不得不对其进行更改,并且将遇到与#1相同的问题。 如果密钥丢失,我们实际上将丢失所有备份。我该如何减轻这种情况而又不增加受到损害的风险? 钥匙应该定期更换吗?每年一次?最佳做法是什么? 大型ISV备份系统如何处理这些问题?

5
是否需要在Amazon S3上备份数据?
我在S3托管200 GB的产品映像(这是我的主要文件托管)。 我是否需要将该数据备份到其他地方,或者S3是否安全? 我一直在尝试将S3存储桶安装到EC2实例,然后进行每晚rsync备份。问题在于它大约有300万个文件,因此生成不同的rsync需求需要花费一些时间。备份实际上需要大约3天才能完成。 任何想法如何做得更好?(如果有必要?)
16 backup  amazon-s3 

2
哪个更适合网站备份-rsync或git push
为了灾难恢复的目的,我在不同的提供商处运行2台LAMP Web服务器-高功率的实时服务器和低功率的备份服务器。 目前,我每隔4小时将所有数据从实时服务器同步到备份服务器一次。 这样做可以,但是会增加系统负载,而rsync会找出哪些文件已更改。 由于所有网站也都位于git存储库中,所以我想知道git push是否会是更好的备份技术。 我必须将实时上传文件夹包含在git repo中;然后备份过程将是: live$ git add . live$ git commit -a -m "{data-time} snapshot" live$ git push backup live_branch 然后在备份服务器上使用post commit钩子,以在每次推送时检出。 每个网站的大小从50M到2GB不等。我最终会得到大约50个单独的git repos。 这是比rsync更好的解决方案吗? git可以更好地计算哪些文件已更改吗? git push比rsync更高效 我忘记了什么? 谢谢! ----来自一些比较测试的数据------ 1)52MB文件夹,然后添加一个新的500k文件夹(主要是文本文件) 同步 sent 1.47K bytes received 285.91K bytes total size is 44.03M speedup is 153.22 …
16 git  backup  rsync 

4
我应该备份和还原`mysql`数据库吗?
在创建用于备份和还原整个MySQL服务器的自动化解决方案的过程中,我遇到了一个mysql数据库,该数据库似乎包含用户帐户,权限,元数据等。是否应该备份该数据库?备份并尝试还原它会破坏事情吗? 正如您所想象的,我在Google搜索“备份MySQL的mysql数据库”方面经历了一段时间。

7
虚拟机高效异地远程备份解决方案的建议
我正在寻找有关备份当前6个虚拟机的建议(并且很快将增长到20个)。目前,我正在运行一个两节点的proxmox集群(这是一个使用kvm进行虚拟化并使用自定义Web前端进行管理的debian基础)。我有两个几乎相同的盒子,分别是AMD现象II x4和华硕主板。每个都有4 500 GB sata2硬盘,其中1个用于os和其他数据用于proxmox安装,另外3个使用mdadm + drbd + lvm在两台计算机之间共享1.5 TB的存储。我将所有虚拟机的lvm映像安装到kvm。我目前能够从一台计算机实时转移到另一台计算机,通常只需几秒钟(在运行带有m $ sql服务器的win2008的最大vm上大约需要2分钟)。我正在使用proxmox的内置vzdump实用程序来拍摄vm'的快照 并将它们存储在网络上的外部硬盘驱动器上。然后,我有了Jungledisk服务(使用机架空间)来同步vzdump文件夹以进行远程异地备份。 这一切都很好,但不是很可扩展。首先,备份本身每晚可能要花费几个小时。通过jungledisk的块级增量传输,同步仅可将一小部分数据异地传输,但仍需要至少半小时。 当然,更好的解决方案是允许我立即获取两个时间点的差异(例如,从上午6点到上午7点写的内容),将其压缩,然后将该差异文件发送到备份服务器,该文件将立即传输到备份服务器。机架空间上的远程存储。我对zfs进行了一些研究,它具有发送/接收的功能。再加上bzip中的一堆数据似乎很完美。但是,似乎使用zfs实现nexenta服务器实际上将需要至少一个或两个以上的专用存储服务器,才能将iSCSI块卷(通过zvol的???)提供给proxmox服务器。如果可能的话,我希望将安装程序保持在最小限度(即没有单独的存储服务器)。 我还简要阅读了有关zumastor的信息。看起来它也可以满足我的要求,但它似乎在2008年停止了发展。 那么,zfs,zumastor还是其他?

8
如何以低优先级备份mysql数据库?
我想备份数据库,但是要在服务器上有负载的白天。备份不影响在同一服务器上运行的apache和其他数据库至关重要。 应该可以使用mysqldump命令,但是以低优先级运行该命令。 我怎样才能做到这一点? 更新: 貌似简单的使用使用mysqldump漂亮不起作用,因为的mysqldump生成一个新的进程。
15 mysql  backup  database 

7
设置新的备份方案
我正在设计我的第一个备份方案。我是管理数据备份的新手,有些概念我还不太了解。这是到目前为止我得到的,以及将要使用的设备。 我将仅备份三台服务器,总数据约为200Gb。我将在周六每周进行一次完整备份,然后在周一至周五晚上进行差异备份。月末还将有完整备份,该备份将在异地存储以用于灾难恢复。 使用的设备:-8插槽磁带备份驱动器-LTO2磁带-具有Exchange和SQL代理的Backup Exec 12.5 我将使用两套磁带,第一套用于第一周,另一套用于第二周,每两周来回交替。 所以我的问题是,每组应该使用多少个磁带?由于备份驱动器最多可以容纳八盘磁带,我是否必须使用八盘磁带?如果我少放一点,会丢掉吗? 其次,由于每个工作日的差异备份最多最多只能达到5Gb左右,我是否需要在介质池中放入5个LTO2磁带(最多可容纳400Gb),每晚一盒?还是一个足够的,因为从理论上讲它可以容纳数周的差异? 我不明白的是,BE是每天选择新的磁带,还是只是继续添加到同一磁带上,直到磁带满了,然后再滚动到下一个磁带。 也许更容易问的问题是,如果您具有上面列出的备份设备和服务器,那么您的备份设计将是什么? 非常感谢....

5
将Amazon S3用作备份服务的软件
关闭。这个问题是题外话。它当前不接受答案。 6年前关闭。 已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 您推荐使用哪种软件将Amazon S3用作每日备份的占位符? 我需要它是完全自动化的,并且易于还原数据。
15 backup  amazon-s3 

11
备份在HyperV上运行的VM的最佳方法?
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 我们在大多数网络中都处于P2V的中间,因此当前的备份方法可能是最差的-备份代理仍安装在客户机OS上,备份设备正忠实地将它们拉到磁带上,一个文件位于一个时间。 我怀疑有一种聪明的方法可以在VM上编写(PowerShell?)挂起脚本,然后备份.vhd文件,然后取消挂起VM。看起来这将提供巨大的速度优势,同时丢失文件级还原(对于DC和应用程序服务器而言,这可能是最好的选择)。 您制定了哪些方法/政策?
15 backup  hyper-v 

14
您为Linux服务器使用哪种备份解决方案
关闭。这个问题是题外话。它当前不接受答案。 5年前关闭。 已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 您在生产环境中为linux服务器使用哪些备份解决方案?您喜欢开源还是商业产品? 您认为备份软件中必不可少的功能是什么? 您不推荐哪些产品?备份软件的选择是否存在一些常见的陷阱?
15 linux  backup 


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.