gpt4 book ai didi

git - 为什么在 GitHub 上导入大量资源失败?

转载 作者:太空狗 更新时间:2023-10-29 14:08:05 26 4
gpt4 key购买 nike

我有一个包含 200 万行(约 4 GB)的大项目,我想将其上传到 GitHub。

不过,同步好像要花很长时间,而且进程中断了好几次。
此外,当我推送存储库时,我的整个互联网几乎都崩溃了......(我认为这可能是因为它上传了太多文件)。我的连接大约有 40MB。
我现在正在使用 GitHub 的 GUI。

我想知道是否有更好(更快)的方法可以将我的本地存储库与在线存储库同步?

最佳答案

GitHub policy本身很清楚:

For best performance, we recommend repositories be kept under 1GB each. This limit is easy to stay within if large files (typically, binaries) are kept out of the repository. If your repository exceeds 1GB, you might receive a polite email from support requesting that you reduce the size of the repository to bring it back down under 1GB.

In addition, we place a strict limit of files exceeding 100 MB in size.

更一般地说,I have explained why Git won't perform well with huge file or huge repo .

为您的项目拥有“一个”repo 是合法的约束。
但是您必须将您的源代码拆分为多个存储库,您可以通过 submodules 将它们重新组合在一起。 .

这样,您就有了一个(非常小的)父存储库,它引用了多个(不太大的)源存储库,它们都在 GitHub 上。

对于像图片这样的静态(即不会改变太多或永远不会)资源,最好将它们完全存储在另一个引用中,并有适当的 Hook ,可以在 checkout 时将这些资源取回您的工作目录.

关于git - 为什么在 GitHub 上导入大量资源失败?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19884781/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com