gpt4 book ai didi

svn - 我可以将 Subversion 用于多 GB 的数据集吗?

转载 作者:行者123 更新时间:2023-12-04 23:10:46 26 4
gpt4 key购买 nike

数据集是 2.57 GB 的 6766 个文件夹中的 97984 个文件。其中很多是二进制文件。

对我来说,这听起来并不多。在大约 50 个文件上,每天的数据更改率为数百 KB。但我担心颠覆会变得非常缓慢。

无论如何它从来都不是很快,最后一次在 v1.2 的建议是将其拆分为多个存储库。不,我不喜欢这个。

有什么方法可以告诉 Subversion 或任何其他免费的开源版本控制信任文件修改时间/文件大小来检测文件更改而不是比较所有文件?
有了这个,并将数据放在一个快速的现代 SSD 上,它应该运行得很快,比如说,完整提交的时间少于 6 秒(这是从 Windows 资源管理器属性对话框中获取摘要的 3 倍)。

最佳答案

Is there way that i can tell subversion or any other free open source version control to trust the file modified time/file size to detect file changes and not compare all the files.



我认为颠覆已经做到了这一点。看看 libsvn_wc questions.c中的这段代码(rev39196):
  if (! force_comparison)
{
svn_filesize_t translated_size;
apr_time_t last_mod_time;

/* We're allowed to use a heuristic to determine whether files may
have changed. The heuristic has these steps:


1. Compare the working file's size
with the size cached in the entries file
2. If they differ, do a full file compare
3. Compare the working file's timestamp
with the timestamp cached in the entries file
4. If they differ, do a full file compare
5. Otherwise, return indicating an unchanged file.

我采样了几个调用这个函数的地方,还有 force_comparison参数总是 FALSE .不过我只花了几分钟看。

关于svn - 我可以将 Subversion 用于多 GB 的数据集吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/1396737/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com