gpt4 book ai didi

mysql - 拆分巨大的mysql插入到多个文件建议

转载 作者:行者123 更新时间:2023-11-29 05:32:25 29 4
gpt4 key购买 nike

我有一个巨大的 mysql 转储需要导入,我设法通过表插入拆分 3gig 文件,其中一个表插入是 600MB,我想将它拆分成 100MB 的文件。所以我的问题是:是否有脚本或简单的方法可以将 600MB 的 INSERT 语句拆分为多个 100MB 的插入而无需打开文件(因为这会杀死我的电脑)。

我试过 SQLDumpSplitter 但这没有帮助。

这就是我不能只运行 600MB 文件的原因:

MYSQL import response 'killed'

请帮忙

最佳答案

在 Linux 上,最简单的文件分割方式是 split -l N - 拆分成N 行,每行。

在 Windows 上,我很幸运地使用了 HxD - 它适用于大文件。

关于mysql - 拆分巨大的mysql插入到多个文件建议,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13599260/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com