gpt4 book ai didi

dbpedia - 从实时 dbpedia 转储生成不同的数据集

转载 作者:行者123 更新时间:2023-12-01 05:30:12 28 4
gpt4 key购买 nike

我正在使用 dbpedia download page 提供的不同数据集。并发现它有点过时了。

然后我从 dbpedia live 下载了最新的转储地点。当我提取 6 月 30 日的文件时,我得到了一个巨大的 37GB .nt 文件。

我想从最新的转储中获取不同的数据集(例如下载页面上可用的不同 .nt 文件)。是否有脚本或流程可以做到这一点?

最佳答案

解决方案1:

您可以使用 dbpedia 实时提取器。 https://github.com/dbpedia/extraction-framework .
您需要配置适当的提取器(例如:信息框属性提取器、抽象提取器 .. 等)。它将下载最新的维基百科转储并生成 dbpedia 数据集。

您可能需要进行一些代码更改以仅获取所需的数据。我的一位同事为德国数据集做了这个。为此,您仍然需要大量磁盘空间。

方案二(不知道是不是真的可行):

对数据集所需的属性执行 grep。您需要知道要获取的属性的确切 URI。

例如:获取所有主页:
bzgrep ' http://xmlns.com/foaf/0.1/homepage ' dbpedia_2013_03_04.nt.bz2 >homepages.nt

它将为您提供所有带有主页的 N-三元组。您可以在 rdf 存储中加载它。

关于dbpedia - 从实时 dbpedia 转储生成不同的数据集,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11625442/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com