gpt4 book ai didi

php - 绑定(bind) MySQL 查询时间并使用部分结果保释

转载 作者:行者123 更新时间:2023-11-30 22:38:44 24 4
gpt4 key购买 nike

我正在寻找一种方法来确保 SELECT 查询在给定的最长时间内返回,并在必要时返回部分结果。

这是我面临的更详细的问题:

我有很多这样的表:

table name: user_1

date | object_id | row_id
2015-05-13 | 0 | 1
2015-05-13 | 0 | 2
2015-05-14 | 0 | 3
...
2015-06-15 | 0 | 5000001
2015-06-15 | 0 | 5000002
2015-06-15 | 0 | 5000003
2015-06-16 | 123 | 5000004
2015-06-17 | 435 | 5000005

我有从 user_1user_1000 的类似表。

row_id 有一个 PRIMARY INDEX,date 有一个 INDEX。

我们正处于迁移过程中。所有新数据(2015 年 6 月 16 日之后)都是使用非零 object_id 创建的,过去的数据可以迁移也可以不迁移。如果 2015-06-16 之前的任何行具有非零 object_id 字段,则迁移表。

我尝试通过以下请求了解表的数据是否已迁移:

SELECT * FROM user_1 WHERE date < 2015-06-16 AND object_id > 0 LIMIT 1

它按预期工作。迁移数据时速度很快(引擎很快找到匹配WHERE子句的行)。不迁移数据时速度很慢(引擎解析所有行以确保没有任何内容与 WHERE 子句匹配)。 object_id 列上没有索引,我无法创建索引。

为了加快速度,我尝试只阅读第一行:

SELECT object_id FROM user_1 ORDER BY date ASC LIMIT 1

我在我的 PHP 代码中测试了 object_id > 0。它总是很快,这很棒。但我可能会得到假阴性结果,因为迁移过程有时无法迁移一行,在这种情况下 object_id 仍为 0。

我的第三次尝试是在给定的时间范围内进行搜索,以降低误报的可能性。

SELECT * FROM user_1 WHERE object_id > 0 AND date BETWEEN 2015-06-01 AND 2015-06-15 LIMIT 1

问题是我不确定所有 user_* 表的这些日期之间是否有行。表仍在迁移时,此日期范围内可能没有行。如果我设置较大的日期范围,查询会变慢。

所以,回到我的问题,我想做一个请求,搜索与我的 WHERE 子句匹配的行最多假设 100 毫秒。如果它在 3 毫秒内找到迁移的行,查询将快速返回,否则我会减少假阴性情况,但我只花费 100 毫秒进行尝试。

我知道我可以使用 MySQL 5.7 设置超时,但我受困于 MySQL 5.5。表引擎是 TokuDB。还有带有 PDO 的 PHP 5.5。类似于 ElasticSearch's timeout 的解决方案会很完美。

感谢您的任何建议。

最佳答案

我找到了一种通过执行子请求来控制请求执行时间的方法。我不知道这是否是最好的方法,但我可以通过修改内部 LIMIT 值间接推断执行时间。

设置 LIMIT 10000LIMIT 100000 更快,但 100000 减少了假阴性案例。

旧请求:

SELECT * FROM user_1 WHERE date < 2015-06-16 AND object_id > 0 LIMIT 1

成为

SELECT * FROM (
SELECT object_id FROM user_1
WHERE date < 2015-06-16
LIMIT 100000
) s
WHERE s.object_id > 0
LIMIT 1

关于php - 绑定(bind) MySQL 查询时间并使用部分结果保释,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31676569/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com