gpt4 book ai didi

已达到 GitHub Git-LFS 限制

转载 作者:行者123 更新时间:2023-12-03 16:52:04 25 4
gpt4 key购买 nike

尽管我的单个剩余大文件(138 mb)现在被 LFS(Github 的大文件存储)跟踪,但我以某种方式达到了 github 数据限制。我重置为最后一次提交,确保 LFS 正在跟踪唯一(据我所知)有问题的文件。我仍然收到以下错误,不知道该怎么做。

batch response: This repository is over its data quota. Purchase more data packs to restore access.  
Uploading LFS objects: 0% (0/1), 0 B | 0 B/s, done
error: failed to push some refs to <repo name>

我之前成功使用过 LFS 存储多个大文件。我不知道是什么导致了这个问题。

最佳答案

老实说,我发现远程服务器上的存储条款和条件真的很奇怪。 GitHub 在其基础架构上“跟踪”您的大文件,对于持有 GitHub 免费帐户的个人,限制为 1 GB。
但有一个警告;假设您使用 Git LFS 初始化了本地存储库,将 138 MB 文件推送到 LFS 服务器,一切都很好。现在,如果出于某种原因您决定更改文件的某些方面,即使只是 1 字节的大更改,Git LFS 也会将其作为一个全新的文件进行跟踪。因此,随着时间的推移,当您不断更改大文件时,它会占用服务器上宝贵的存储空间。
奇怪的是,甚至官方文档都没有提到任何删除以前版本的大文件以释放宝贵空间的方法。
这是一个示例,详细说明了我提到的内容:

If you push a 500 MB file to Git LFS, you'll use 500 MB of yourallotted storage and none of your bandwidth. If you make a 1 bytechange and push the file again, you'll use another 500 MB of storageand no bandwidth, bringing your total usage for these two pushes to 1GB of storage and zero bandwidth.


您可以在此处的官方文档中阅读更多内容 - Tracking storage and bandwidth use

关于已达到 GitHub Git-LFS 限制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51051553/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com