gpt4 book ai didi

mysql - 解析文章内容的维基百科 XML 转储并填充 MySQL 数据库的快速方法是什么?

转载 作者:可可西里 更新时间:2023-11-01 07:35:34 26 4
gpt4 key购买 nike

对于某些文本挖掘应用程序,我需要确定英文维基百科中每篇文章中每个单词的出现频率,并使用该数据填充 MySQL 数据库。 This official page建议在转储上使用 mwdumper 或 xml2sql,但它们并不直接满足我的目的(除非有人可以解释它们如何做到)。

使用 WikiExtractor 、用于 Python 的 MySQLdb 和本地 MySQL 服务器,另一方面,允许我做我想做的事,但它很慢,以至于需要一个月的时间来解析整个转储。对修改后的 WikiExtractor 程序进行分析表明,大部分运行时间都花在了它的嵌套正则表达式搜索和我的数据库插入上。

理想情况下,我不希望处理文章的时间超过几天。我怎样才能有效地做到这一点?

最佳答案

Perl 包 MediaWiki::DumpFile有利于解析。要加载转储并阅读每一页,您只需要很少的代码行。

要进行简单的词频计算,您可以使用 sample code in Perl FAQ或包裹 Text::Ngrams为了更聪明的东西。

将结果添加到数据库由您决定,因为您正在开发应用程序并且您应该知道需求。

关于mysql - 解析文章内容的维基百科 XML 转储并填充 MySQL 数据库的快速方法是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13546254/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com