gpt4 book ai didi

performance - Excel速度和大小问题

转载 作者:行者123 更新时间:2023-12-04 20:17:56 25 4
gpt4 key购买 nike

我在一家大公司的共同基金部门实习,研究收入模型。该模型已经开发并且非常庞大。我需要在速度(打开、保存、关闭、计算)和效率(可能是更好的公式?)方面对其进行整体优化。

问题是:它非常慢。它有超过 42 个工作表,现在是 23 MB。它链接到我驱动器上的许多其他 excel 文件,但不链接到网络硬盘驱动器中的驱动器。

它经常使用“vlookup”、“sumif”和“sum”。所有工作表都通过公式链接到所有其他工作表。

为了更清楚地说明,excel 文件基本上是跟踪共同基金(超过 50 种类型)及其子类别的数量。例如,我们获取有关基金业绩、基金收入、每个基金管理的 Assets 以及其他 20 多个此类属性的实际数据。我的 Excel 表从这些其他 Excel 表中获取数据,并将所有内容一起报告,以便我们可以预测 future 4-5 年的收入和收入。

为了给你规模,工作簿中的总“sumif”公式为 113000,是的,这是正确的..超过 100、000!同样的vlookups是53000 ...

我已经切换到手动计算模式,删除了所有宏(它们很少,仅用于在选项卡之间切换,并且还尝试保存为二进制文件(二进制使它快三倍,但我担心,如果文件考虑到我们正在向它添加东西,它变得更大,二进制会成为添加宏甚至更多 vlookup 的障碍......?)

主要问题在于打开和保存。只有一些 vlookup 正在查找其他 vlookup 收集的数据。简而言之,我的问题是:

1)二进制文件格式的效率如何(已在各种论坛上阅读过有关此内容的信息,但在向我的部门推荐之前仍需要 100% 确定)
2)我们可以安全地将 vlookup 称为罪魁祸首,因为它们超过 50000
3)正在拆分文件,假设每个标签有 10 个标签,比一个有 42 个标签的 excel 更有效吗?知道会有所作为吗?假设我在公式方面没有更改任何其他内容,并且一旦我拆分它,我只需在此处引用新的 excel 表。这也是劳动密集型的,因为这似乎也是一项艰巨的任务。所以在冒险之前,我需要确定这是否是正确的思考过程。

非常感谢您的帮助。

阿舒

最佳答案

对于 VLOOKUP 尝试对数据进行排序,然后使用 VLOOKUP 的二进制搜索选项(它的数量级更快)。见 Exact match binary search lookups如果您无法对数据进行排序,请考虑使用基于内存的查找 Memlookup

关于performance - Excel速度和大小问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17170725/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com