gpt4 book ai didi

多次记录后的MySQL性能?

转载 作者:行者123 更新时间:2023-11-29 02:12:08 26 4
gpt4 key购买 nike

如果我有一个名为“users”的表,其中包含 1,000,000 个用户,执行查询需要多长时间?

场景一(100万条记录)

SELECT * FROM "USERS" WHERE "ID" = 290000

场景二(1000万条记录)

UPDATE USERS SET lastname='Doe' WHERE "ID"=5525

场景三(1亿条记录)

SELECT * FROM "USERS" LIMIT 10 OFFSET 15

所以基本上我的问题是,在性能受到影响之前,表格可以有多大?我应该等待什么时间

如果性能受到影响,我该如何管理一个非常大的数据库?

注意事项:

假设我有 64GB 内存,这不是问题

我也用过固态硬盘

最佳答案

如果您使用索引(用于您的查询)和分区,那么您无需担心表的大小。我的意思是,在某些时候,索引不适合内存,然后您可能会遇到一些性能问题。但是对于 64 GB 和 100,000,000 行,您还没有做到这一点。

对于前两个查询,您需要在 id 上建立索引,如果它是主键,您将自动获得该索引。

第三个只是获取任意行,因此索引没有帮助。

关于多次记录后的MySQL性能?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49086812/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com