gpt4 book ai didi

大数据量的数据库选择?

转载 作者:太空狗 更新时间:2023-10-30 01:38:18 29 4
gpt4 key购买 nike

我即将开始一个新项目,该项目应该有一个相当大的数据库。

表的数量不会很大(<15),大部分数据(99%)将包含在一个大表中,几乎是插入/只读(无更新)。

估计该表中的数据量将以每天 500.000 条记录的速度增长,我们应该至少保留 1 年,以便能够做各种报告。

需要有(只读的)复制数据库作为备份/故障转移,并且可能用于在高峰时间卸载报告。

我没有使用大型数据库的第一手经验,所以我想问问那些在这种情况下哪个数据库是最佳选择的人。我知道 Oracle 是安全的选择,但如果有人对 PostgresqlMysql 有类似设置的经验,我会更感兴趣。

最佳答案

我在每天看到 100K-2M 新行的环境中使用 PostgreSQL,其中大部分添加到单个表中。但是,这些行往往会减少为示例,然后在几天内删除,因此我无法谈论超过 1 亿行的长期性能。

我发现插入性能相当合理,尤其是当您使用批量 COPY 时。查询性能很好,尽管规划器所做的选择有时让我感到困惑;特别是在进行 JOINs/EXISTS 时。我们的数据库需要定期维护(VACUUM/ANALYZE)以保持其平稳运行。我可以通过更仔细地优化 autovacuum 和其他设置来避免其中的一些问题,如果您不执行很多 DELETE,这就不是什么大问题。总的来说,我觉得在某些方面配置和维护比应该的更难。

我没用过Oracle,MySQL只做小数据集,所以没法比较性能。但是 PostgreSQL 确实可以处理大型数据集。

关于大数据量的数据库选择?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/629445/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com