gpt4 book ai didi

php - 如何将大型维基百科 sql 文件导入 mysql 数据库?

转载 作者:搜寻专家 更新时间:2023-10-31 22:12:50 26 4
gpt4 key购买 nike

我需要一个带有“主题”的数据库表,所以我下载了维基百科的类别 sql 文件(http://dumps.wikimedia.org/enwiki/latest/ 上的 enwiki-latest-category.sql.gz)

文件大小为 74MB(解压后),但 mysql 限制为 32MB。如何导入此文件?

顺便说一句:我尝试了 bigdump (http://www.ozerov.de/bigdump/),但它似乎也有 32MB 的导入限制。

最佳答案

您可以将其分成 32MB 的片段并单独导入。它不应该太耗时。

关于php - 如何将大型维基百科 sql 文件导入 mysql 数据库?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10691475/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com