gpt4 book ai didi

ubuntu - 每天一次同步运行 Ubuntu 的整个 Plone 生产服务器的可行性

转载 作者:行者123 更新时间:2023-12-04 18:37:02 25 4
gpt4 key购买 nike

有没有人用 Plone 做完整的 VM 快照或 rsync 备份的经验?我们有一个服务器运行几个独立的 Zope 应用程序服务器,值(value)约为 10-20 GB ZODB 数据和 blob。

  • 是否可以通过每天一次将整个服务器文件系统重新同步到复制机器来复制服务器?

  • 这将提供“准系统高可用性”,在服务器损坏的情况下,只需将生产 IP 切换到备用服务器。

    这里的问题是
  • rsync delta 算法能否巧妙地复制仅附加的 Data.fs 文件,还是每次都复制整个 Data.fs? Data.fs 和 blob 是运行 Plone 站点的服务器上唯一更改的数据。
  • rsync 是否足够快以一天一次计算整个服务器文件系统的增量
  • rsync 运行时是否会对系统造成太大压力
  • 是否需要在 rsync 上运行更高级的东西来加快进程(例如 Duplicity)
  • Ubuntu 系统分区是否有必须从 rsync 中排除的内容

  • 据我所知,实时 ZODB Data.fs 副本是可以的,因为它们只能附加。

    这种复制方法的好处是
  • 设置非常简单:除了普通的 Linux 系统管理员知识之外,不需要高级复制知识

  • 我们案例中的数据并不那么重要。只要复制在一天内接管,我们就可以恢复 1-2 个旧备份。

    服务器正在运行 Ubuntu 12.04。

    最佳答案

    是的,rsync 将能够以增量方式复制 Data.fs 数据;毕竟,这是一种仅附加的方法。

    当被 rsync 复制时,你确实冒着最后一个正在进行的事务不完整的风险,但是 Zope 足够聪明,可以忽略这样的不完整事务。

    rsync 将不得不做很多工作来找出在 Data.fs 中从哪里开始复制,因为它不知道格式只是附加的。所以在每次运行时,它都会从头开始分析整个文件,这会消耗一些 CPU 和磁盘访问资源。

    也许使用 repozo 的组合rsync 会是更好的解决方案吗?运行 repozo 以创建快照(创建快照效率更高,因为 repozo 确实知道 Data.fs 的仅附加性质),重新同步这些快照,并自动从这些备份中“恢复”您的冷故障转移服务器。与 collective.recipe.backup 在你的构建中包含 repozo 是一件轻而易举的事。

    关于ubuntu - 每天一次同步运行 Ubuntu 的整个 Plone 生产服务器的可行性,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11776648/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com