Questions tagged «rsync»

Rsync是Unix和Windows系统的开源命令行工具,它提供快速的增量文件传输,以复制文件并在本地或远程主机之间同步目录。它广泛用于镜像和备份。

4
恢复递归的scp传输(使用rsync?)
我正在通过scp传输每个〜1MB的几千个文件,并且在最初的大约2k个文件之后,我的连接断开了。我想知道是否有一种方法可以从头开始就恢复递归传输。就像是 $ scp -r me@host.com:/datafiles/ ./ ... Happy Transfer ... ... BREAK! ... $ rsync -P me@host.com:/datafiles/ ./ ... Continue transf... 问题是,如果可能的话,我似乎无法正确获取语法。任何人都可以阐明是否可以这样做吗? PS。如果在rsync行的“ datafiles”之后指定斜杠,那是否传输目录或其内容?我在搜寻Google时发现评论有冲突。
14 rsync  scp  recursion 

7
允许远程rsync的备份服务
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新的问题,所以这是对话题的超级用户。 2年前关闭。 我正在寻找一种在线备份服务,该服务可让我同步备份(每周1-3GB增量,共50GB)。我目前在Dreamhost上使用我的托管空间,但是(有争议的)与他们的TOS相对,我想摆脱它。 我想听听人们使用rsync从Linux计算机备份到以下任何计算机的经验:*直接使用Amazon S3(这可能吗?)*直接将Rackspace云存储*将Jungle Disk转换到Amazon或机架空间* s3rsync转换到Amazon S3(他们似乎有点新)*其他任何优质的服务.. 我还希望每月支付不超过10欧元 谢谢
14 linux  backup  rsync 

1
rsync需要很长时间才能发送文件列表
我正在尝试使用rsync将某些文件从内部硬盘备份到USB驱动器。(我正在开发wd mybook world NAS) 我要备份两个文件夹。音乐文件夹和视频文件夹。音乐文件夹(864个文件,大约10gb)在大约1小时内就可以完美工作(完整的进度)。 但是视频文件夹(1025个文件,大约700gb)现在仍在“发送增量文件列表”上8个小时。我认为没有任何转移。是什么导致这种差异?video文件夹中没有更多文件。是的,它更大了,但是我认为生成文件列表不会有什么不同。 我正在使用以下rsync命令: /shares/extern # rsync -avPc --stats /shares/Public/Shared\ Videos /shares/extern/ 现在,由于我在NAS上工作,所以我没有那么多的CPU能力,但是我认为这太久了。 您认为这是正常现象吗?有什么建议可以帮助我加快整个过程吗? 我正在使用rsync 3.0.2
14 rsync 

1
两个本地目录之间的rsync
我正在尝试rsync在连接到同一台计算机的两个文件系统中的两个目录之间进行操作。我想这样做而不会删除中的多余文件b。我虽然简单rsync -a a/dir b/dir就能工作,但似乎没有。这是在具有以下内容的Linux系统上rsync version 3.0.6 protocol version 30: $ mkdir -p a/test $ mkdir -p b/test $ touch a/test/file1 $ touch a/test/file2 $ touch b/test/file3 $ tree a/test b/test a/test ├── file1 └── file2 b/test └── file3 0 directories, 3 files $ rsync -a a/test/ b/ $ tree a/test …

9
在Linux中将一百万个图像从一个目录移动到另一个目录的最快方法是什么?
我有一百万个占用30GB磁盘空间的映像,这些映像需要从一个本地目录移动到另一个本地目录。 什么是最有效的方法?使用mv?使用cp?使用rsync?还有吗 我需要这些: /path/to/old-img-dir/* 00000000.jpg --------.jpg ## nearly 1M of them! ## ZZZZZZZZ.jpg 并将它们移到这里: /path/to/new/img/dir/

3
使用Linux将文件从NTFS精确复制到另一个NTFS
我尝试将所有文​​件从NTFS复制到外部驱动器,并希望保留所有权限和属性。外部驱动器已经具有NTFS并包含其他文件。 我考虑过使用以下工具: ntfsclone无法工作,因为它在扇区级别上运行,并且会克隆整个FS,从而破坏了旧数据。如果用于创建图像文件,则无法从Windows计算机访问内容。 rsync 不会保留所有元数据。 另一种选择是robocopy在运行中的Windows中使用,但我希望不复制文件。(源分区用作系统的C:\。) 如何复制文件?
14 linux  backup  ntfs  rsync 


3
linux合并文件夹:rsync?
我有一个文件夹的两个副本 src/ dest/ 我要合并它们,执行以下操作: 如果只有一个文件src,我希望将其移动到dest 如果文件仅在中dest,我希望它忽略IE单独留下的内容。 如果文件在两个文件中且具有相同的内容(即大小和日期相同),请从src 如果文件是在这两个并执行不具有相同的内容,留下src这样我就可以手动将它们合并。 最后一个类别中应该只有很少的文件(占总文件的0%至5%),但我不知道如何将两者中的和两者分开,但是有所不同。 我试图弄清楚该怎么做,rsync但到目前为止没有任何结果。
13 linux  bash  rsync 

3
如何以尽可能少的CPU和带宽开销来同步大文件?
我有一个500 GB的文件,我打算对其进行远程备份。该文件经常更改。我将其从桌面同步到服务器。两者都可以运行rsync客户端或服务器。 正确的命令是什么?我尝试过的那些沙发已经永久使用或表现得很奇怪。 示例和结果: rsync -cv --partial --inplace --no-whole-file /desktop/file1 myserver.com::module/file1 似乎可以工作,但前提是我要进行两次(?!)。还有,慢。 上面的命令是在两台计算机上还是仅在发送计算机上进行校验和?否则正确吗?
13 rsync 


3
在运行bash脚本时停止Mac的睡眠,然后在完成后使其正常睡眠
我已经将Mac夜间唤醒,并运行rsync进行备份。通过“节能器”>“时间表”进行配置。 但是似乎它要重新进入睡眠状态才能完成任何工作,因此我需要在运行rsync的bash脚本执行过程中使其停止睡眠。 我认为最好的方法(如果可能的话)是发出命令,将睡眠超时设置为“从不”或非常长的超时时间,然后再进行rsync,然后在完成后恢复正常。有更好的解决方案吗?
13 mac  bash  sleep  rsync 

3
rsync在Bash脚本中抱怨`缺少尾随-'
尝试在屏幕会话中将文件从一台服务器同步到另一台服务器。我决定不是每次都写长命令,而是决定放入一个Bash脚本。但是,当我运行它时,出现Missing trailing-" in remote-shell command.错误。 想知道脚本中出了什么问题。 root@127.0.0.1:~# /raid/data/module/bin/rbk.sh Movies /raid/data/Movies rsync_target/ /raid/data/module/bin/screen -S Movies /opt/bin/rsync --rsh="ssh -p 10022 -c des"\ --rsync-path="/opt/bin/rsync" --inplace --progress -a -vv \ /raid/data/Movies sys@192.168.1.15:/raid/data/rsync_target/ Missing trailing-" in remote-shell command. rsync error: syntax or usage error (code 1) at main.c(361) [sender=3.0.5] 该脚本回显将首先执行的操作,然后执行命令。以下是我的脚本的转储: #!/bin/bash SCREEN="/raid/data/module/bin/screen" SCREENOPT="-S" SCREEN_TITLE=$1 RSYNC="/opt/bin/rsync" …
13 bash  ssh  rsync 

1
如何告诉rsync跳过损坏的硬盘块上的文件,而不是试图读取它而被卡住
我正在尝试从具有硬件错误的磁盘中恢复文件。 该磁盘已通过磁盘实用程序修复,但它告诉我该磁盘已损坏,因此在发生故障之前,我需要备份所有内容。 所以我试图通过finder复制文件,但是卡住了。尝试了其他实用程序,当磁头撞到损坏的块时,它们在尝试复制文件时被卡住。 所以我尝试了rsync,它似乎可以工作;但是当我碰到坏块时,它会永远花费。 所以我想知道,是否有一种方法可以告诉Rsync甚至不打扰一个文件,是否花费太长时间?我可以指定每个文件尝试的次数,或者每个文件需要尝试多长时间? 我不确定该驱动器可以持续使用多长时间,因此我想尽快删除所有数据,同时仍可以挂载它并在finder中查看其中的数据。 这就是我使用的命令;请建议是否有任何方法可以减少对文件的尝试,因此我可以让rsync尝试读取损坏的块,但避免卡在特定扇区上的时间过长。 rsync -arv -e--ignore-errors --partial-dir=/Volumes/backup/partial /Volumes/work /Volumes/backup 提前致谢。
13 macos  rsync 

4
文件复制实用程序,如rsync,具有错误处理功能,如ddrescue,用于从具有坏扇区或硬件故障的硬盘驱动器恢复数据[关闭]
我有一个硬盘驱动器坏块或扇区由于潜在的机械问题而无法读取,例如磁盘头坏,电机坏或其他一些问题导致硬盘驱动器以极慢的速度缓慢读取数据读错误。我看到平均50 KB /秒,一些读取速度低于10 KB /秒,并且经常会在文件或扇区中完全停留,通常持续相当长的时间 - 从2-10分钟或更长时间(当使用rsync,在它超时之前)。 速度似乎变化很大,并且它会在文件上受到很多限制,当它最终“脱落”时,它似乎只会在它再次卡住之前持续短暂的爆发。驱动器也非常安静,只有偶尔的文件复制声音(通常是在它被卡住/松开一小段时间之后,再次卡住之前)。因此,通常与HDD死亡无关的那些邪恶声音都没有。有人认为这些问题听起来可能是因为它们可能是由磁盘头错位引起的,这需要在最终成功读取数据之前进行大量的重新读取。听起来似乎有道理,但我离题了...... 无论如何,rsync的问题在于它似乎没有像样的错误处理支持。显然,这并不意味着,以恢复从失败的硬盘中的数据,但所有的所谓的“数据恢复”实用工具在那里,都意味着这种使用通常集中在被删除的文件恢复或弄乱了分区,而不是从垂死的硬盘上复制文件。显然,删除的文件恢复不是我需要的,所以也许你可以理解我无法找到我之后的失望。 当然,这是你可能会说“你应该使用ddrescue!”的地方。嗯,这很好,花花公子,但我已经备份了大部分数据,所以我只想恢复某些文件。我不关心尝试像ddrescue一样逐块恢复完整分区。我只对拯救特定的文件和目录感兴趣。 理想情况下,我想要的是rsync和ddrescue之间的某种交叉:允许我将源和目标指定为普通文件(如rsync)的目录(而不是像ddrescue所要求的两个完整分区),以及一种跳过文件的方法初始运行中的错误,然后允许我尝试在稍后的运行中恢复那些有错误的文件(当然,稍微改变一下命令),甚至可以提供一个选项来指定重试次数...就像ddrescue如何使用块,只有我想要一个与rsync一样的特定文件/目录的实用程序。 我在这里做白日梦,还是做了一些可以做到这一点的事情?或者,甚至可能以这种方式使rsync或ddrescue工作?我真的愿意接受任何可能有效的解决方案,只要他们让我选择我想要“救援”的文件,并且可以在初始运行时跳过有错误的文件,然后再尝试/重试这些错误。 到目前为止,我已尝试使用以下选项进行rsync,但它经常卡在文件上的时间超过超时,理想情况下我只是希望它转到下一个文件并稍后返回到它获取的文件坚持下去。我不认为这是可能的。无论如何,这是我到目前为止一直在使用的东西: rsync -avP --stats --block-size=512 --timeout=600 /path/to/source/* /path/to/destination/

5
在MacOS中为cp -r -l(递归副本保留硬链接)
我正在尝试以递归方式复制目录树,以保留到文件的硬链接。使用gnu cp,这将与-l标志一起使用。cp然后将重新创建目录结构,但是不需要复制每个文件的内容。 这是备份的初步准备,首先我想为先前的备份制作一个便宜的(硬链接)副本,然后在该副本上重新同步源目录。大致: cp -r -l yesterdays_backup todays_backup rsync -a source_dir todays_backup 不幸的是,据我所知,OSX的cp不支持-l标志,cpio不支持递归复制。另一种选择是pax,但这会导致整个目录结构被复制: pax -rw backups/yesterdays_backup backups/todays_backup 转换: yesterdays_backup | \source_dir (...) 至: todays_backup | \backups \yesterdays_backup \source_dir(...) 应该有一个简单/明显的方法来做到这一点,但是我目前很困惑... cpio和pax的替代品吗?我想避免必须安装gnu cp。 我知道Timemachine,但这不会正确地增量备份加密的目录。
12 mac  backup  rsync  cp 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.