首页 > 解决方案 > 当数据几乎从不改变时,Git Repo 中的 BLOB 数据会那么糟糕吗?

问题描述

我已经阅读了很多关于在 GIT 中存储大型二进制文件的缺点。通常有推荐使用 git LFS 之类的。但大多数注意事项似乎都与您将不时更改的文件有关。

当文件几乎永远不会更改时,将大型二进制文件存储在 GIT 存储库中是否有任何缺点?

我说的是一个 3-5 GB 的存储库,其中主要包含图像数据,这些数据旨在用作单元测试的输入。所以它必须保持不变。

典型的用例是开发人员对 repo 进行一次拉取,然后几乎不需要再次拉取它。如果他们添加新的单元测试,他们可能会添加更多图像,仅此而已。这就是过去 5 年数据在我们的 SVN 存储库中的存储方式,并且运行良好。如果我将其移至 GIT,是否有一些特定的东西会使这项工作变得更糟?

(我不喜欢这个模型,但它肯定会让我的云构建更容易......)

标签: gitgit-lfs

解决方案


Git 不是为有效管理大文件而构建的,但无论如何你都可以使用它。通常,使用 LFS 的要求是因为您打算推送到像 github 这样的服务,他们对单个 blob 可以拥有的大小(100 MB)有硬性限制.....但是如果您自己持有 repo,这应该不是问题


推荐阅读