gpt4 book ai didi

mysql - 大型 mysql 数据库的可靠备份?

转载 作者:可可西里 更新时间:2023-11-01 08:38:21 25 4
gpt4 key购买 nike

我有 200GB/400Mrows mysql/innodb 数据库 - 远远超出我发现的合理范围。

一个令人惊讶的问题是恢复备份。 mysqldump 生成巨大的 sql 文件,它们需要大约一周的时间才能导入回新数据库(尝试使其更快,如更大/更小的事务,在导入过程中关闭 key 等,网络压缩等到目前为止失败,myisam import 似乎快 2 倍,但那时不会有交易)。

更糟糕的是 - 我希望得到一些帮助 - 在一周的时间段内传输 >200GB 的网络连接有很大的中断机会,并且 sql 导入过程不能在任何非 -简单的方法。

处理它的最佳方法是什么?现在,如果我注意到连接断开,我会通过检查最后导入的表的最高主键来手动尝试确定它何时结束,然后使用一个基本上执行此操作的 perlscript:

perl -nle 'BEGIN{open F, "prelude.txt"; @a=<F>; print @a; close F;}; print if $x; $x++ if /INSERT.*last-table-name.*highest-primary-key/'

这确实不是要走的路,那么最好的方法是什么?

最佳答案

您的 MySQL 机器是否有足够的硬盘空间来容纳所有翻倍的数据?本地存储在这里最好,但如果不是一个选项,您也可以尝试使用 iSCSI 的某种 NAS 设备。它仍然在网络上发生,但在这种情况下,您可以获得更高的吞吐量和可靠性,因为您只依赖于具有非常精简的操作系统并且几乎不需要重新启动的 NAS。

关于mysql - 大型 mysql 数据库的可靠备份?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/2163686/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com