如何安全地将多GB数据上传到Amazon S3?


0

我正在备份我的个人照片/视频库 亚马逊S3 (几百GB)。

我目前正在使用 Cyber​​duck的 在我的Mac上拖动&但是我已经有一些失败而没有明确的失败 重试/恢复 行为。

我想找到一种方法来上传目录,确信它们都完全转移,并且有一个明确的方法来重试/恢复任何失败的目录。

你会推荐什么?命令行方法很好。


如果您使用的是Mac,是否有理由不能将SSH连接作为磁盘挂载并对该磁盘运行Time Machine? (我自己不使用Mac,但我没有看到为什么这不起作用的原因,AFAIK Time Machine是增量的,可以节省带宽)
pzkpfw

哇,这是一个疯狂的想法。从没想过将S3用于TM。但是,我不需要TM而宁愿做一次完整备份。我提到我在Mac上,但我很好奇是否有适用于Linux的东西。例如,愿意 rsync 为此工作?我不熟悉它,知道使用哪些标志,但它似乎是一个可靠的工具。
Andrew

1
rsync 应该工作,并且易于使用,只需谷歌一些例子。还有 duplicity 它包含rsync以创建类似时间机器的备份解决方案,效果很好。看到 easyengine.io/tutorials/backups/duplicity-amazon-s3
pzkpfw

Answers:


1

根据你的问题,你可以试试 Bucket Explorer

Bucket Explorer的功能

  • 您可以浏览存储在Amazon S3中的存储桶和文件。
  • 从Amazon S3存储桶上传和下载文件。
  • Bucket Explorer适用于支持Java的每个操作系统。

Bucket Explorer 附带分段上传功能。这允许您将单个对象作为一组部件上传。在上传过程中,每个部分都是对象数据的一部分,每个部分都可以独立上传。与简单上传相比,分段上传提供了许多好处,特别是当对象大小非常大时。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.