gpt4 book ai didi

caching - 限制 Dropbox 缓存大小

转载 作者:行者123 更新时间:2023-12-02 17:47:52 28 4
gpt4 key购买 nike

关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。












想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。

12 个月前关闭。




Improve this question




我在使用 Dropbox 缓存时遇到问题,因此我会定期发现与 Dropbox 同步的特定机器的磁盘空间不足,而 Dropbox 缓存是罪魁祸首。这是一个问题,因为安装 Dropbox 的机器是 headless 的(或几乎是 headless 的),因此唯一表明出现问题的迹象是突然应该在机器上可用的数据不是。

我已经读到可以清除缓存,但这很痛苦,因为这台机器运行的是 OS X 并且没有命令行界面,这意味着我必须将 VNC 连接到机器中才能重新启动 Dropbox。这似乎也限制了我自动清除缓存的选项,尽管必须创建一个定期任务来清理 Dropbox 文件夹似乎很笨拙且容易出错。 (例如,磁盘可能会在脚本运行之前填满。)

(更新:似乎在低磁盘条件下删除文件会导致 Dropbox 在不重新启动的情况下再次开始同步,但我不确定这是否有任何不良副作用,我读过的关于缓存的所有地方都说要停止Dropbox 在删除期间重新启动它。)

此外,似乎 Dropbox 空间耗尽如此之快的原因是我有一个大型日志文件(大约半千兆字节),它是仅附加的,但 Dropbox 正在创建一个新的缓存副本每次进行更改时都会使用整个旧版本。因此,从性能的角度来看,每次向文件中添加几个字节时,它都会不断地创建这个大文件的副本,这有点不可取。

这台机器上的磁盘空间相当紧张,所以我宁愿让 Dropbox 限制它的缓存量。有没有办法做到这一点?到目前为止,我的搜索结果是空的。

更新:我尝试打开 Dropbox 支持请求,但收到一封电子邮件回复,内容为:“感谢您的来信。虽然我们很乐意回答我们收到的每一个问题,但我们
很遗憾,由于大量支持,无法回复您的询问
请求。”

最佳答案

我有同样的问题,原因完全相同(也花了一段时间才弄清楚):Dropbox 文件夹中的日志文件实际上并不大(几 MB),但它确实每分钟更新几百个字节.我的缓存正在杀死我。我的本地 Dropbox 文件夹总共有 150 GB,其中 50 GB 是缓存!

我刚刚清除了它,我的理解是除了重新同步之外没有其他后果,但这是不可持续的。

我在这里看到了几种解决方案:

  • Dropbox 不适合此用例。不要在 Dropbox 上保留频繁更新的日志。我认为这将是一个无赖,因为应该有一个相当简单的技术解决方案,它们是:
  • Dropbox 要么具有或应该具有缓存最大大小的设置,就像浏览器所做的那样。如果它不存在(显然),这应该不太难实现,否则告诉我们它在哪里。
  • 可以编写一个脚本(在这里谈论 Linux)定期(每小时应该足够,但理论上可以每分钟完成一次)检查 .dropbox.cache 的磁盘大小,如果超过某个限制,它将删除一些文件。您可以删除 10 个最近的文件,或 10% 的文件,或者如果您真的想花点心思,您可以计算从最旧的文件开始需要删除多少,以保持一定的缓存大小。问题可能是停止 Dropbox,但似乎如果您只是暂停同步应该没问题。

  • 2 号和 3 号实际上是一回事,只是谁来做的问题。鉴于 Dropbox 不是开源平台,Dropbox 编写和维护此功能可能是最好的选择。当 Dropbox 代码库中的某些内容发生更改时,任何第三方插件都可能会停止工作。

    Dropbox 确实有动机不提供此功能,因为频繁同步 = 更多带宽。但我认为我们为带宽付费。

    谢谢 Dropbox,我们都爱你,尤其是因为你免费为我们提供了所有额外的空间。

    关于caching - 限制 Dropbox 缓存大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20975680/

    28 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com