gpt4 book ai didi

mysql每张表的数据量

转载 作者:可可西里 更新时间:2023-11-01 08:08:24 24 4
gpt4 key购买 nike

我正在设计一个系统,通过深入研究数字,我意识到它可能会达到这样一个程度:一个表可能每年包含 54,240,211,584 条记录(大约)。哇!!!!

因此,我将其降低到 73,271,952 条记录/年(大约)。

我通过让一些 excel 运行在以下情况下会发生什么来得到这些数字:
a) 没有成功 = 87 个用户,
b) 低调成功 = 4300 用户,
c) 高调成功 = 13199 用户,
d) 成功 = 55100 个用户
e) 令人难以置信的成功 = nah

考虑到该表用于 SELECT、INSERT、UPDATE 和 JOIN 语句,并且这些语句将由任何登录到系统的用户每小时/每天/每周执行(历史数据不是一个选项):

问题1:第二个数量是否适合/方便MySQL引擎,这样性能影响不大???

问题 2:我将表设置为 InnoDB,但是考虑到我使用 JOINS 处理所有语句并且我愿意遇到 4GB 限制问题,InnoDB 有用吗???

表格快速概览:
表 #1:用户/事件购买。最多 15 列,其中一些列为 VARCHAR。
表#2:购买门票。最多 8 列,仅 TINYINT。主键 INT。每个表 #1 插入插入 4 到 15 行。
表 #3:按票列出的项目。 4 列,只有 TINYINT。主键 INT。每个表 #2 插入插入 3 行。我想把它作为一个单独的表,但如果有人必须死...

表 #3 是问题的目标。我减少到第二个数量的方法是让每个表 #3 的行成为表 #2 的列。

我不想做的事情是按周对表进行分区并向应用程序添加更多逻辑。

每个答案都有帮助,但这样会更有帮助:
i) 33,754,240,211,584:不,让我们放弃最后一个数字。
ii) 3,375,424,021,158:不,让我们放弃最后一个数字。
iii) 337,542,402,115:不,所以让我们放弃最后一个数字。依此类推,直到我们得到类似“好吧,这取决于很多因素……”

我认为什么是“性能影响很小”???最多 1,000,000 条记录,执行查询所需时间不超过 3 秒。如果 33,754,240,211,584 条记录大约需要 10 秒,那对我来说太棒了。

为什么我不自己测试一下???我想我没有能力做这样的测试。我要做的就是插入那么多行,然后看看会发生什么。我首先更喜欢已经知道类似事物的人的观点。记住,我还在设计阶段

提前致谢。

最佳答案

54,240,211,584 很多。我只有最多 3 亿行的 mysql 表的经验,并且它处理起来几乎没有问题。我不确定您实际上在问什么,但这里有一些注意事项:

  • 如果您需要事务支持,或者正在进行大量插入/更新,请使用 InnoDB。MyISAM 表不适合事务性数据,但如果您的阅读量很大并且只是时不时地进行批量插入/更新,那没关系。

  • 如果您使用最新版本/最新操作系统,则 mysql 没有 4Gb 限制。我最大的表现在是 211Gb。

  • 清除大表中的数据非常慢。例如删除一个月的所有记录需要我几个小时。 (虽然删除单个记录很快)。

  • 如果您期望有数十亿条记录,请不要使用 int/tinyint,它们会环绕。

  • 开始工作,在第一次发布后修复缩放。一个未实现的想法几乎没有用,(目前)可行的东西可能非常有用。

  • 测试。没有真正的替代品 - 您的应用和数据库使用情况可能与其他人的庞大数据库大不相同。

  • 研究分区表,这是 MySQL 中的一项最新功能,可以帮助您以多种方式进行扩展。

关于mysql每张表的数据量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/2225082/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com