gpt4 book ai didi

rdf - Sparql 查询超时并出现传递临时内存错误消息

转载 作者:行者123 更新时间:2023-12-01 11:38:39 25 4
gpt4 key购买 nike

我正在运行以下查询以获取意大利的旅游景点

select distinct ?poi where {?company a dbpedia-owl:Place ; rdfs:label ?poiName; dcterms:subject/skos:broader* category:Visitor_attractions_in_Italy } 

但是我得到以下错误。

Virtuoso 42000 Error TN...: Exceeded 1000000000 bytes in transitive temp memory. use t_distinct, t_max or more T_MAX_memory options to limit the search or increase the pool SPARQL query: define sql:big-data-const 0 #output-format:application/sparql-results+json define input:default-graph-uri PREFIX owl: PREFIX xsd: PREFIX rdfs: PREFIX rdf: PREFIX foaf: PREFIX dc: PREFIX : PREFIX dbpedia2: PREFIX dbpedia: PREFIX skos: select distinct ?poi where {?company a dbpedia-owl:Place ; rdfs:label ?poiName; dcterms:subject/skos:broader* category:Visitor_attractions_in_Italy }

即使我在查询结束时使用限制 10,我也会收到此错误。我知道这可能是一个耗时的查询,但不确定如何分解此查询以便在最后获得所有旅游景点。

最佳答案

有人遇到了同样类型的问题,并在 answers.semanticweb.com 上询问:Finding all possible categories between one given and Main classification with DBpedia and SPARQL .有点不满意的答案在这里也有答案:决定你实际需要多深,而不是使用 *,使用 {} 符号来指示 skos:broader 的最大重复次数。例如,

select distinct ?poi where {
?poi a dbpedia-owl:Place ;
dcterms:subject/skos:broader{,10} category:Visitor_attractions_in_Italy
}

SPARQL results

指示重复次数的 {} 符号实际上不是标准的一部分,尽管它出现在标准的早期草案中。不过,基于 Virtuoso 的 DBpedia 端点仍然支持它。

关于rdf - Sparql 查询超时并出现传递临时内存错误消息,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24495802/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com