gpt4 book ai didi

php - MySQL大块数据-快速访问而无需重新计算

转载 作者:行者123 更新时间:2023-11-29 21:14:27 25 4
gpt4 key购买 nike

我想使用 sphinx/solr/elastic search 在 RAM 中存储大块数据,无论其他什么都适合这种需求(问题是我不知道什么工具最适合我只听说人们使用它们)。

我构建有关销售的报告,每月收到近 800-900k 行销售,用户希望滚动页面并顺利查看它们。

我无法一次向他们提供所有数据,因为浏览器会挂起 同时我无法使用 mysql 中的 LIMIT,因为查询需要合并交叉表。

不能在流程上重新计算它。

在 mysql 中创建临时表是一个坏主意,因为有一堆条件并且多个用户可以查看数据。

 Temporary_table
id product_id product_count order_id order_status.... .....user_id

有了这样的表,我会将当前用户的所有结果存储在表中,并且只要用户不进行新查询,就会将它们保存在那里。但我不喜欢这个解决方案。一定有更好的东西。我感觉这超出了我的能力范围。

有什么想法吗?

最佳答案

“向下钻取”,而不是“向下滚动”!

当我需要呈现一百万行信息时,我首先考虑如何对其进行切片和切 block ——按小时、按地区、按产品类型等进行小计。每个切片可能有一百行——非常易于管理,尤其是对于汇总表。

在那一百行中将是可点击的项目,将用户带到有关其中一个项目的更详细的页面。这也将有一百行(或 10 或 1000 行——无论有意义;但 >1000 通常是不合理的)。该页面可能有进一步的链接以进一步深入。和/或横向移动的链接。

通过适当的切片和切 block ,你不太可能需要向他发送一百万行;只有几百个。

有了合适的汇总表,“临时表”等就消失了。

关于php - MySQL大块数据-快速访问而无需重新计算,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36082874/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com