gpt4 book ai didi

mysql - 应该如何针对大量写入和少量读取优化/调整 mysql (100 :1). Read perf reqd

转载 作者:行者123 更新时间:2023-11-29 01:48:11 25 4
gpt4 key购买 nike

我有一个简单的数据库,其中有 4 个表,每个表有几百万行,还有几个索引。我每分钟执行数百次更新和插入。读取频率要低得多,但它们需要快速 - 对于网络应用程序。读应该有优先权——我可以延迟写,如果它有助于提高阅读的敏捷度。

目前,当我不写插入和更新时,所有的选择都很好。当我同时写作时,事情会慢下来——有时会非常慢。服务器肯定会受到 IO 限制 - 我使用了 iostat 并看到在高写入期间磁盘利用率达到 99%。

明天我将尝试削减一两个索引、缩小行大小并禁用查询缓存。对于如何针对大量写入和少量读取调整表或 mysql 本身,是否有人有任何其他建议?

这些表当前设置为使用具有紧凑行的 innodb 引擎,并且除了缓冲池大小之外,大多数配置仍设置为默认值。数据库将继续快速增长,因此将它全部放在 ram 中不是一种选择。

更新:在 slicehost.com 上 - 1gb ram,raid 10。

最佳答案

索引会减慢写入速度,但对于读取性能来说是必需的,因此尽可能少地支持读取。是你的clustered index会导致很多减速吗?

另一种可能性是从您的写入中读取单独的数据库/表并选择最终一致性 - 这在您的情况下可能是不可能的。

关于mysql - 应该如何针对大量写入和少量读取优化/调整 mysql (100 :1). Read perf reqd,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/992892/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com