gpt4 book ai didi

mysql - percona mysql 的表分区时间太长

转载 作者:行者123 更新时间:2023-11-29 11:50:00 25 4
gpt4 key购买 nike

我正在尝试在包含 3000 万条记录的现有表 (innodb) 上创建一个新分区 (LIST)。该查询运行了近 2 小时,但仍处于“复制到临时表”状态。我已经使用 percona mysql 性能向导来改进,但我没有看到任何差异。服务器根本没有流量。运行在具有 16 核、30GB 内存和 SSD 300/3000 IO 的 Ubuntu 服务器上。看起来 mysql 没有使用所有资源。内存使用量为 9GB,只有 3 个核心在非常低的负载下运行。有没有办法改进设置以使用更多资源并加快查询速度?

最佳答案

首先,PARTITION BY LIST实际上毫无用处。为什么你认为这值得做?

让我们看看显示创建表。如果有很多二级索引,这可能就是问题所在。

innodb_buffer_pool_size 有多大?听起来它并没有应有的那么大。 (建议使用大约 70% 的可用 RAM。)

让我们看看花费了这么长时间的 SQL。这里面可能有一些微妙的东西。

关于mysql - percona mysql 的表分区时间太长,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34256789/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com