gpt4 book ai didi

mysql - 导入大型 MySQL 文件而不会出现复制滞后

转载 作者:行者123 更新时间:2023-11-28 23:29:37 26 4
gpt4 key购买 nike

我要在命令行上导入一个 5 GB 的表:

mysql -u dbuser -p customersdb < transactions.sql

之前我导入了一个 2GB 的文件,这导致复制延迟了很长时间。反正有什么可以避免的吗?在我看来,每几千次导入后以某种方式添加超时似乎是理想的选择。

我尝试用谷歌搜索它,但这个用例似乎并不经常出现。

编辑:此外,是否有监控导入进度的方法?

最佳答案

导致延迟的问题是默认情况下从属线程是单线程的。所有操作 - 无论是来自您的导入还是来自其他操作 - 都发生在一个队列中。

从 MySQL 5.6 开始,您可以通过设置 slave_parallel_workers 选项来使用多线程。在 MySQL 5.6 中,这将分布来自不同模式的操作,在 5.7 中,它也可以在单个模式中并行化。

参见 https://dev.mysql.com/doc/refman/5.6/en/replication-options-slave.html#sysvar_slave_parallel_workers

关于mysql - 导入大型 MySQL 文件而不会出现复制滞后,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37766219/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com