gpt4 book ai didi

重负载和容量限制下的 Sharepoint 性能

转载 作者:行者123 更新时间:2023-12-04 00:28:46 25 4
gpt4 key购买 nike

我正在为一个包含大约 40 个应用程序的业务解决方案包开发一个新的存储系统。其中一些应用程序会生成当前保存并组织在网络共享文件夹中的文档(主要是 docx,一些 pdf)。

应用程序平均每年生成大约 150.000-200.000 个文档,这些文档应该以更加一致和可靠的形式(即单独的 SQL 数据库)持久化。

Sharepoint 是一个领先的候选者,因为我们计划最终使用它的其他功能,而不是 DMS 功能。我已阅读有关文档库限制的信息,即。每个文件夹 2000 个文件,文档库的所有文件夹中最多有 1.000.000 个文件。我还读到可以绕过 2000 限制,但它会影响性能。我还没有找到在一个库中拥有如此大量文件的真实体验。例如,如果我将文件夹限制增加到 50.000 会发生什么,这会对性能产生什么影响(通过 Web 服务读取/编辑/写入文档的请求变慢,尤其是在检查重复文件名、索引、搜索等时写入.)。

一个重要的注意事项:如果我们不需要,我们根本不会使用 sharepoint web 门户,而是通过 web 服务通过我们的应用程序做所有事情,因此数据 View 渲染速度较慢不是问题。

最佳答案

您可以在文档库中拥有任意数量的项目,只要您的最后一段是真实的(您不会通过门户本身访问信息)

我们对我们的 DMS 系统进行了工作测试,在 same 文档库和 same 文件夹。但是我们从不通过门户查看该内容,我们使用 SPWeb.GetFile(guid) 方法使用这些文件,并且我们在另一个 SQL 数据库(存储文件的 GUID)上拥有与它们相关的所有信息

关于重负载和容量限制下的 Sharepoint 性能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/1839904/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com