English 中文(简体)
RSync 单一(等级)文件指出,每次变化都会发生。
原标题:RSync single (archive) file that changes every time

我正在开发一个公开的源头备用设施,支持档案,并将其转至亚马孙S3、Rackspace云文档、Droop箱和通过FTP/SFTP/SCP议定书提供的远程服务器等外部地点。

现在,我收到了增加支助的特例要求(如果提供的支持是巨大的,并且变得昂贵,以转移和储存)。 我一直在研究,有人提到<代码>rsync。 我对此进行了一些测试,但无法确定是否合适,因此,我要听取在<编码>上有一些经验的任何人的意见。

请允许我向各位介绍一下在获得支持时发生的情况。 基本上,它取代了诸如MySQL、PogreSQL、MongoDB、Redis等倾销数据库。 它可能从档案系统中接收一些普通档案(如图像)。 一旦全部就绪,它便会将其全部放在一栏中(另外,它使用<条码>gzip和<条码>开放sl<>。

Once that s all done, we have a single file that looks like this:
mybackup.tar.gz.enc

我现在要把这个档案转移到一个偏远的地方。 目标是降低带宽和储存成本。 因此,要假设这种微薄的一揽子支援计划是关于<1 GB的大小。 因此,我们使用<代码>sync,将这一条移至偏远地点,并在当地撤销档案备份。 明天将产生新的备份文件,由此可见,过去24小时中增加了许多数据,我们建立了新的<条码>:背书.tar.gz.enc文档,它像我们再读到<条码>1.2GB<>>。

现在,我的问题是:能否仅仅转让过去24小时添加的200MB? 我尝试了以下指挥:

sync -vhP - 申请 Ibackup.tar.gz.enc 页: 1

www.un.org/Depts/DGACM/index_spanish.htm 结果:

mybackup.tar.gz.enc 1.20G 100% 36.69MB/s 0:00:46 (xfer#1, to-check=0/1)

sent 200.01M bytes
received 849.40K bytes
8.14M bytes/sec
total size is 1.20G
speedup is 2.01

看看sent 200.01M bytes 我这样说,数据“应用”是适当的。 现在我很想知道的是,它是否转移了整个<条码>1.2GB,以便说明现有备份量和内容,还是将“<>>really>。 仅转让<代码>200MB? 因为如果转让整个<代码>1.2GB 那么,我看不出它如何与使用<代码>scp<>/code>在单一大型档案上的效用有很大不同。

而且,如果我想要达到什么目标,你建议什么旗帜? 如果不可能使用<代码>sync,你是否可以建议使用?

任何反馈都受到高度赞赏!

最佳回答
问题回答

gzip的性质是,源文档的少量改动可能会导致对压缩文档的大幅改动——克齐普将每次就压缩你提供的数据的最佳方式作出决定。

Some versions of gzip have the --rsyncable switch which sets the block size that gzip works at to the same as rsync s, which results in a slightly less efficient compression (in most cases) but limits the changes to the output file to the same area of the output file as the changes in the source file.

如果无法向您提供,则通常最好把未经压缩的文件(如果带宽是考虑因素的话,则使用rs子本身压缩)和最后压缩(如果磁盘空间是考虑的话)。 显然,这取决于你使用案例的具体情况。

New rsync --append WILL BREAK your file contents, if there are any changes in your existing data. (Since 3.0.0)





相关问题
Backing up my database is taking too long

On a windows mobile unit, the software I m working on relies on a sdf file as it s database. The platform that the software is targeted towards is "less than optimal" and hard resets every once and a ...

Cognos LAE Backup Automation (Batch File?)

Within Cognos 7.4 security.. one would create an LAE file to export all their users... directions here... http://www.cognos-install.co.uk/articles/backups/access_manager_export_to_lae.asp Now you ...

backup SQL Server 2005 database without data

I have one stored procedure to backup the database. It will backup metadata as well as data. Is there any option to back up the database with out data. ie, back up only the schema (Empty tables). I ...

SQL Server 2008 Auto Backup

We want to have our test servers databases updated from our production server databases on a nightly basis to ensure we re developing on the most recent data. We, however, want to ensure that any fn, ...

mysql dump stops when a row is updated

When i try to get a dump of a mysql database, the dump stops when a row in it is updated. How can i prevent that? I already tried following options with no result: -f (forces continu even when error)...

热门标签