- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
索引 Wikipedia Dump 是一个 35GB 的 XML 文件,在 Lucene 中证明是巨大的(请参阅下面的代码了解概览)。在 100 篇文章之后,没有存储字段,我使用了大约 35 MB 的索引空间,这意味着对于大约 350 万篇文章,我使用了超过 1.2 TB!这怎么可能,因为原始文件只是该大小的一小部分。这个包是低效的还是 Lucene 只是有非常大的索引存储需求?我是不是忽略了什么?
如果我假设来自维基百科的前 100 篇文章非常大并且不代表非常正常的文章,我只能解释它,在这种情况下我会大大高估它。有人能告诉我他们的转储(用 Lucene 索引)有多大以及花了多长时间吗?
这里是代码:
package example;
import edu.jhu.nlp.wikipedia.*;
import edu.jhu.nlp.language.Language;
import org.apache.log4j.Logger;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.*;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriterConfig;
import org.apache.lucene.index.IndexWriterConfig.OpenMode;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.util.Version;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.IOException;
import java.util.Date;
import java.util.Vector;
public class WikipediaTextFacetIndexer {
protected String facetName = null;
protected ConfigurationManager configManager = null;
protected String contentFolder = null;
protected String indexFolder = null;
private static int counter = 0;
public void index() {
// true creates a new index / false updates the existing index
boolean create = false;
// check if data directory exists
logger.debug("wikipedia dump file = " + contentFolder);
final File wikipediaDumpFile = new File(contentFolder);
if (!wikipediaDumpFile.exists() || !wikipediaDumpFile.canRead()) {
logger.error("Wikipedia dump file '" + wikipediaDumpFile.getAbsolutePath()
+ "' does not exist or is not readable, please check the path. ");
System.exit(1);
}
// to calculate indexing time as a performance measure
Date start = new Date();
try {
logger.debug("Indexing to directory '" + this.indexFolder + "'...");
Directory dir = FSDirectory.open(new File(this.indexFolder));
Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_42);
IndexWriterConfig iwc = new IndexWriterConfig(Version.LUCENE_42, analyzer);
if (create) {
// Create new index, remove previous index
logger.debug("Creating a new index in directory: '" + this.indexFolder + "'...");
iwc.setOpenMode(OpenMode.CREATE);
} else {
// Add new documents to existing index
logger.debug("Updating the index in directory: '" + this.indexFolder + "'...");
iwc.setOpenMode(OpenMode.CREATE_OR_APPEND);
}
// index
IndexWriter writer = new IndexWriter(dir, iwc);
indexDocuments(writer, wikipediaDumpFile);
writer.close();
// time stamping
Date end = new Date();
logger.debug("Indexing time: " + (end.getTime() - start.getTime()) + " total milliseconds for " + WikipediaTextFacetIndexer.counter + " articles.");
} catch (IOException e) {
logger.error("Exception: " + e.getMessage());
}
}
/**
* Indexes individual pages from the wikipedia dump with a set of configured IndexFieldGenerators.
*
* @param writer A writing handle to the index
* @param file The file to be indexed
* @throws IOException
*/
private void indexDocuments(final IndexWriter writer, File file) throws IOException {
// reset the file counter
WikipediaTextFacetIndexer.counter = 0;
// do not try to index files that cannot be read
if (file.canRead()) {
if (file.isDirectory()) {
String[] files = file.list();
// an IO error could occur
if (files != null) {
for (int i = 0; i < files.length; i++) {
indexDocuments(writer, new File(file, files[i]));
}
}
} else {
FileInputStream fis;
try {
fis = new FileInputStream(file);
} catch (FileNotFoundException fnfe) {
// at least on windows, some temporary files raise this exception with an "access denied" message
// checking if the file can be read doesn't help
return;
}
try {
// create a new, empty document
final Document doc = new Document();
// access wikipedia dump file
WikiXMLParser wxsp = WikiXMLParserFactory.getSAXParser(file.getAbsolutePath());
try {
wxsp.setPageCallback(new PageCallbackHandler() {
public void process(WikiPage page) {
if (page.isRedirect() || page.isDisambiguationPage() || page.isSpecialPage() || page.isStub()) {
logger.info("- Excluding Redirection / Disambiguation / Special / Stub Wikipedia page id " + page.getID() + " about '" + page.getTitle().trim() + "'");
return;
}
// facetid is wikipedia ID
// check if docId was read successfully, stop if not
if (page.getID() == null || page.getID().length() == 0) {
logger.error("Facet Id unknown for wikipedia article '" + page.getTitle() + "'. Nothing done.");
return;
}
// id
doc.add(new IntField("id", new Integer(page.getID()), Field.Store.NO));
logger.info("id: " + page.getID());
// title
doc.add(new TextField("title", page.getTitle().trim(), Field.Store.NO));
logger.info("title: " + page.getTitle());
// text
doc.add(new TextField("text", page.getText().trim(), Field.Store.NO));
logger.info("TEXT: " + page.getText());
// original wikipedia text --- excludes some Wiki markup
//doc.add(new TextField("wikitext", page.getWikiText(), Field.Store.YES));
// infobox
InfoBox infoBox = page.getInfoBox();
if (infoBox != null) {
doc.add(new TextField("infobox", page.getInfoBox().dumpRaw(), Field.Store.NO));
logger.info("infobox: " + page.getInfoBox().dumpRaw());
}
// links
Vector links = page.getLinks();
String linksString = "";
for (int i = 0; i < links.size(); i++) {
linksString = linksString + links.get(i);
if (i < (links.size() - 1)) {
linksString = linksString + ";";
}
}
doc.add(new TextField("links", linksString.trim(), Field.Store.NO));
logger.info("links: " + linksString.trim());
// categories
Vector categories = page.getCategories();
String categoriesString = "";
for (int i = 0; i < categories.size(); i++) {
categoriesString = categoriesString + categories.get(i);
if (i < (categories.size() - 1)) {
categoriesString = categoriesString + ";";
}
}
doc.add(new TextField("categories", categoriesString.trim(), Field.Store.NO));
logger.info("cat: " + categoriesString.trim());
// redirect page
if (page.getRedirectPage() != null){
doc.add(new TextField("redirectPage", page.getRedirectPage(), Field.Store.NO));
logger.info("redirect: " + page.getRedirectPage());
}
// translated titles for French, German and Spanish
if (page.getTranslatedTitle(Language.FRENCH) != null){
doc.add(new TextField("translatedTitleFR", page.getTranslatedTitle(Language.FRENCH), Field.Store.NO));
logger.info("translate: " + page.getTranslatedTitle(Language.FRENCH));
}
if (page.getTranslatedTitle(Language.GERMAN) != null){
doc.add(new TextField("translatedTitleFR", page.getTranslatedTitle(Language.GERMAN), Field.Store.NO));
logger.info("translate: " + page.getTranslatedTitle(Language.GERMAN));
}
if (page.getTranslatedTitle(Language.SPANISH) != null){
doc.add(new TextField("translatedTitleFR", page.getTranslatedTitle(Language.SPANISH), Field.Store.NO));
logger.info("translate: " + page.getTranslatedTitle(Language.SPANISH));
}
// write document to index
try {
logger.debug("[" + WikipediaTextFacetIndexer.counter + "] + Adding Wikipedia page id " + page.getID() + " about '" + page.getTitle().trim() + "'");
writer.addDocument(doc);
WikipediaTextFacetIndexer.counter++;
// just build a small index with 5000 concepts first!!! Remove later !!!
if (WikipediaTextFacetIndexer.counter == 100) {
writer.commit();
writer.close();
System.exit(0);
}
} catch (Exception e) {
logger.error("Exception while writing index: " + e.getMessage());
}
}
});
wxsp.parse();
} catch (Exception e) {
e.printStackTrace();
}
} finally {
fis.close();
}
}
}
return;
}
}
最佳答案
我在您的代码中检测到一个错误。当你编写文档时,你不会从文档中删除字段,所以每次添加文档时,它都有以前文章和新文章的字段,因为这些没有被删除。因此,当您获得结果时,它们似乎都是一样的,具有大量字段(存储的字段*文章数)。
为了解决它,我添加了
doc.removeField("id");
doc.removeField("title");
doc.removeField("text");
doc.removeField("wikitext");
之后
writer.addDocument(doc);
编辑:刚刚完成了 8 GB 西类牙语转储的完整索引,其中只有 id、title(stored)、wikitext(stored) 和 infobox 字段。只有 4.8GB
关于java - Wikipedia Dump 会在 Lucene 中变大吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24163230/
我需要将文本放在 中在一个 Div 中,在另一个 Div 中,在另一个 Div 中。所以这是它的样子: #document Change PIN
奇怪的事情发生了。 我有一个基本的 html 代码。 html,头部, body 。(因为我收到了一些反对票,这里是完整的代码) 这是我的CSS: html { backgroun
我正在尝试将 Assets 中的一组图像加载到 UICollectionview 中存在的 ImageView 中,但每当我运行应用程序时它都会显示错误。而且也没有显示图像。 我在ViewDidLoa
我需要根据带参数的 perl 脚本的输出更改一些环境变量。在 tcsh 中,我可以使用别名命令来评估 perl 脚本的输出。 tcsh: alias setsdk 'eval `/localhome/
我使用 Windows 身份验证创建了一个新的 Blazor(服务器端)应用程序,并使用 IIS Express 运行它。它将显示一条消息“Hello Domain\User!”来自右上方的以下 Ra
这是我的方法 void login(Event event);我想知道 Kotlin 中应该如何 最佳答案 在 Kotlin 中通配符运算符是 * 。它指示编译器它是未知的,但一旦知道,就不会有其他类
看下面的代码 for story in book if story.title.length < 140 - var story
我正在尝试用 C 语言学习字符串处理。我写了一个程序,它存储了一些音乐轨道,并帮助用户检查他/她想到的歌曲是否存在于存储的轨道中。这是通过要求用户输入一串字符来完成的。然后程序使用 strstr()
我正在学习 sscanf 并遇到如下格式字符串: sscanf("%[^:]:%[^*=]%*[*=]%n",a,b,&c); 我理解 %[^:] 部分意味着扫描直到遇到 ':' 并将其分配给 a。:
def char_check(x,y): if (str(x) in y or x.find(y) > -1) or (str(y) in x or y.find(x) > -1):
我有一种情况,我想将文本文件中的现有行包含到一个新 block 中。 line 1 line 2 line in block line 3 line 4 应该变成 line 1 line 2 line
我有一个新项目,我正在尝试设置 Django 调试工具栏。首先,我尝试了快速设置,它只涉及将 'debug_toolbar' 添加到我的已安装应用程序列表中。有了这个,当我转到我的根 URL 时,调试
在 Matlab 中,如果我有一个函数 f,例如签名是 f(a,b,c),我可以创建一个只有一个变量 b 的函数,它将使用固定的 a=a1 和 c=c1 调用 f: g = @(b) f(a1, b,
我不明白为什么 ForEach 中的元素之间有多余的垂直间距在 VStack 里面在 ScrollView 里面使用 GeometryReader 时渲染自定义水平分隔线。 Scrol
我想知道,是否有关于何时使用 session 和 cookie 的指南或最佳实践? 什么应该和什么不应该存储在其中?谢谢! 最佳答案 这些文档很好地了解了 session cookie 的安全问题以及
我在 scipy/numpy 中有一个 Nx3 矩阵,我想用它制作一个 3 维条形图,其中 X 轴和 Y 轴由矩阵的第一列和第二列的值、高度确定每个条形的 是矩阵中的第三列,条形的数量由 N 确定。
假设我用两种不同的方式初始化信号量 sem_init(&randomsem,0,1) sem_init(&randomsem,0,0) 现在, sem_wait(&randomsem) 在这两种情况下
我怀疑该值如何存储在“WORD”中,因为 PStr 包含实际输出。? 既然Pstr中存储的是小写到大写的字母,那么在printf中如何将其给出为“WORD”。有人可以吗?解释一下? #include
我有一个 3x3 数组: var my_array = [[0,1,2], [3,4,5], [6,7,8]]; 并想获得它的第一个 2
我意识到您可以使用如下方式轻松检查焦点: var hasFocus = true; $(window).blur(function(){ hasFocus = false; }); $(win
我是一名优秀的程序员,十分优秀!