我开始看到具有数百TB数据的客户端(在SQL Server安装中)。随着一些企业中数据总量接近PB的有意义的部分,我想在此探讨一下集体知识库,以了解处理这些数据量的人们正在采取哪些措施来保护它。
显而易见的问题是,使用企业级存储,大量甚至是RAID-5,存储这么多数据的多个备份的费用过高。
我看到的选项如下:
- 在另一个数据中心中创建数据的镜像副本,并不断将差异发送给它(使用适用于您的数据源的任何机制,例如日志传送或使用SQL Server进行数据库镜像)
- 使用强大的压缩算法进行定期备份(可能仅在数据很容易被严重压缩的情况下才适用)
- 分段备份数据的关键/更改部分。
- 不要备份数据并信任腐败神。
我看到默认情况下采用了选项4,作为HA / DR专家,它确实很吓人,但是我建议采取什么替代措施?我认为#1是最好的方法,但是当建议使用除#4和#3以外的任何替代方法时,通常会回答“我不这么认为”。
现在,这当然取决于数据的变化率和关键程度。无需回答这个问题,因为我在Microsoft工作期间曾经负责SQL Server的所有HA功能,因此我精通“取决于”这一论点-这是我的口号:-)
我会很想听到我错过的任何替代方案,或者听到其他人都在同一条船上,并且没有现实的替代方案,那就是花很多钱来增加存储空间。
在此先感谢您-我们将对所有经过深思熟虑和明确表示的答案给予应有的感谢。