gpt4 book ai didi

mysql - 导入维基百科数据库转储 - 杀死 navicat - 有人有任何想法吗?

转载 作者:搜寻专家 更新时间:2023-10-30 22:22:45 26 4
gpt4 key购买 nike

好吧,我已经下载了维基百科 xml 转储及其高达 12 GB 的数据:\对于一个表,我想将它导入到我本地主机上的 mysql 数据库中 - 然而它是一个 12GB 的巨大文件,显然 navicats 正在使用它导入它的甜蜜时光,或者它更有可能被绞死 :(。

有没有一种方法可以包含这个转储或至少部分地包含您一点一点知道的内容。


让我更正一下它的 21 GB 数据 - 不是说它有帮助:\- 有没有人知道将像这样的庞大文件导入 MySQL 数据库。

最佳答案

改用命令行,navicat 导入大文件很糟糕,并且可能比使用 CLI 花费 20 倍的时间。

关于mysql - 导入维基百科数据库转储 - 杀死 navicat - 有人有任何想法吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/862613/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com