- 使用 Spring Initializr 创建 Spring Boot 应用程序
- 在Spring Boot中配置Cassandra
- 在 Spring Boot 上配置 Tomcat 连接池
- 将Camel消息路由到嵌入WildFly的Artemis上
本文整理了Java中opennlp.tools.tokenize.WhitespaceTokenizer.tokenize()
方法的一些代码示例,展示了WhitespaceTokenizer.tokenize()
的具体用法。这些代码示例主要来源于Github
/Stackoverflow
/Maven
等平台,是从一些精选项目中提取出来的代码,具有较强的参考意义,能在一定程度帮忙到你。WhitespaceTokenizer.tokenize()
方法的具体详情如下:
包路径:opennlp.tools.tokenize.WhitespaceTokenizer
类名称:WhitespaceTokenizer
方法名:tokenize
暂无
代码示例来源:origin: apache/opennlp
public static POSSample parse(String sentenceString) throws InvalidFormatException {
String[] tokenTags = WhitespaceTokenizer.INSTANCE.tokenize(sentenceString);
String[] sentence = new String[tokenTags.length];
String[] tags = new String[tokenTags.length];
for (int i = 0; i < tokenTags.length; i++) {
int split = tokenTags[i].lastIndexOf("_");
if (split == -1) {
throw new InvalidFormatException("Cannot find \"_\" inside token '" + tokenTags[i] + "'!");
}
sentence[i] = tokenTags[i].substring(0, split);
tags[i] = tokenTags[i].substring(split + 1);
}
return new POSSample(sentence, tags);
}
代码示例来源:origin: apache/opennlp
String typeName = WhitespaceTokenizer.INSTANCE.tokenize(line)[0];
代码示例来源:origin: apache/opennlp
public DocumentSample read() throws IOException {
String sampleString = samples.read();
if (sampleString != null) {
// Whitespace tokenize entire string
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(sampleString);
DocumentSample sample;
if (tokens.length > 1) {
String category = tokens[0];
String[] docTokens = new String[tokens.length - 1];
System.arraycopy(tokens, 1, docTokens, 0, tokens.length - 1);
sample = new DocumentSample(category, docTokens);
}
else {
throw new IOException("Empty lines, or lines with only a category string are not allowed!");
}
return sample;
}
return null;
}
}
代码示例来源:origin: apache/opennlp
@Override
public SentenceSample read() throws IOException {
SentenceSample sample = samples.read();
if (sample != null) {
List<String> sentenceTexts = new ArrayList<>();
for (Span sentenceSpan : sample.getSentences()) {
sentenceTexts.add(sample.getDocument().substring(sentenceSpan.getStart(), sentenceSpan.getEnd()));
}
StringBuilder documentText = new StringBuilder();
List<Span> newSentenceSpans = new ArrayList<>();
for (String sentenceText : sentenceTexts) {
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(sentenceText);
int begin = documentText.length();
documentText.append(detokenizer.detokenize(tokens, null));
newSentenceSpans.add(new Span(begin, documentText.length()));
documentText.append(' ');
}
return new SentenceSample(documentText, newSentenceSpans.toArray(new Span[newSentenceSpans.size()]));
}
return null;
}
}
代码示例来源:origin: apache/opennlp
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(line);
代码示例来源:origin: apache/opennlp
String[] parts = WhitespaceTokenizer.INSTANCE.tokenize(taggedTokens);
代码示例来源:origin: apache/opennlp
@Test
public void testOneToken() {
Assert.assertEquals("one", WhitespaceTokenizer.INSTANCE.tokenize("one")[0]);
Assert.assertEquals("one", WhitespaceTokenizer.INSTANCE.tokenize(" one")[0]);
Assert.assertEquals("one", WhitespaceTokenizer.INSTANCE.tokenize("one ")[0]);
}
代码示例来源:origin: apache/opennlp
@Test
public void testTokenizationOfStringWithoutTokens() {
Assert.assertEquals(0, WhitespaceTokenizer.INSTANCE.tokenize("").length); // empty
Assert.assertEquals(0, WhitespaceTokenizer.INSTANCE.tokenize(" ").length); // space
Assert.assertEquals(0, WhitespaceTokenizer.INSTANCE.tokenize(" ").length); // tab
Assert.assertEquals(0, WhitespaceTokenizer.INSTANCE.tokenize(" ").length);
}
}
代码示例来源:origin: apache/opennlp
/**
* Tests if it can tokenize whitespace separated tokens.
*/
@Test
public void testWhitespaceTokenization() {
String text = "a b c d e f ";
String[] tokenizedText = WhitespaceTokenizer.INSTANCE.tokenize(text);
Assert.assertTrue("a".equals(tokenizedText[0]));
Assert.assertTrue("b".equals(tokenizedText[1]));
Assert.assertTrue("c".equals(tokenizedText[2]));
Assert.assertTrue("d".equals(tokenizedText[3]));
Assert.assertTrue("e".equals(tokenizedText[4]));
Assert.assertTrue("f".equals(tokenizedText[5]));
Assert.assertTrue(tokenizedText.length == 6);
}
代码示例来源:origin: apache/opennlp
@Test
public void testURL() throws Exception {
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(text);
Span[] find = regexNameFinder.find(tokens);
List<Span> spanList = Arrays.asList(find);
Span urlSpan = new Span(13, 14, "URL");
Assert.assertTrue(spanList.contains(urlSpan));
Assert.assertEquals("https://www.google.com", tokens[urlSpan.getStart()]);
}
代码示例来源:origin: apache/opennlp
@Test
public void testPhoneNumber() throws Exception {
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(text);
Span[] find = regexNameFinder.find(tokens);
List<Span> spanList = Arrays.asList(find);
Span phoneSpan = new Span(9, 10, "PHONE_NUM");
Assert.assertTrue(spanList.contains(phoneSpan));
Assert.assertEquals("123-234-5678", tokens[phoneSpan.getStart()]);
}
代码示例来源:origin: apache/opennlp
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(tokenizedLine);
代码示例来源:origin: apache/opennlp
String line;
while ((line = untokenizedLineStream.read()) != null) {
String[] whitespaceTokenizerLine = WhitespaceTokenizer.INSTANCE.tokenize(line);
代码示例来源:origin: apache/opennlp
@Test
public void testEmail() throws Exception {
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(text);
Span[] find = regexNameFinder.find(tokens);
List<Span> spanList = Arrays.asList(find);
Assert.assertTrue(spanList.contains(new Span(3, 4, "EMAIL")));
Span emailSpan = new Span(3, 4, "EMAIL");
Assert.assertEquals("opennlp@gmail.com", tokens[emailSpan.getStart()]);
}
代码示例来源:origin: apache/opennlp
@Test
public void testMgrs() throws Exception {
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(text);
Span[] find = regexNameFinder.find(tokens);
List<Span> spanList = Arrays.asList(find);
Span mgrsSpan1 = new Span(18, 19, "MGRS");
Span mgrsSpan2 = new Span(20, 24, "MGRS");
Assert.assertTrue(spanList.contains(mgrsSpan1));
Assert.assertTrue(spanList.contains(mgrsSpan2));
Assert.assertEquals("11SKU528111".toLowerCase(), tokens[mgrsSpan1.getStart()]);
Assert.assertEquals("11S", tokens[mgrsSpan2.getStart()]);
}
}
代码示例来源:origin: apache/opennlp
@Test
public void testLatLong() throws Exception {
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(text);
Span[] find = regexNameFinder.find(tokens);
List<Span> spanList = Arrays.asList(find);
Span latLongSpan1 = new Span(22, 24, "DEGREES_MIN_SEC_LAT_LON");
Span latLongSpan2 = new Span(35, 41, "DEGREES_MIN_SEC_LAT_LON");
Assert.assertTrue(spanList.contains(latLongSpan1));
Assert.assertTrue(spanList.contains(latLongSpan2));
Assert.assertEquals("528", tokens[latLongSpan1.getStart()]);
Assert.assertEquals("45", tokens[latLongSpan2.getStart()]);
}
代码示例来源:origin: apache/opennlp
while ((line = lineStream.read()) != null) {
String[] whitespaceTokenizerLine = WhitespaceTokenizer.INSTANCE.tokenize(line);
String[] tags = tagger.tag(whitespaceTokenizerLine);
代码示例来源:origin: apache/opennlp
String document;
while ((document = documentStream.read()) != null) {
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(document);
代码示例来源:origin: org.apache.opennlp/opennlp-tools
public static POSSample parse(String sentenceString) throws InvalidFormatException {
String[] tokenTags = WhitespaceTokenizer.INSTANCE.tokenize(sentenceString);
String[] sentence = new String[tokenTags.length];
String[] tags = new String[tokenTags.length];
for (int i = 0; i < tokenTags.length; i++) {
int split = tokenTags[i].lastIndexOf("_");
if (split == -1) {
throw new InvalidFormatException("Cannot find \"_\" inside token '" + tokenTags[i] + "'!");
}
sentence[i] = tokenTags[i].substring(0, split);
tags[i] = tokenTags[i].substring(split + 1);
}
return new POSSample(sentence, tags);
}
代码示例来源:origin: ai.idylnlp/idylnlp-opennlp-tools-1.8.3
public static POSSample parse(String sentenceString) throws InvalidFormatException {
String[] tokenTags = WhitespaceTokenizer.INSTANCE.tokenize(sentenceString);
String[] sentence = new String[tokenTags.length];
String[] tags = new String[tokenTags.length];
for (int i = 0; i < tokenTags.length; i++) {
int split = tokenTags[i].lastIndexOf("_");
if (split == -1) {
throw new InvalidFormatException("Cannot find \"_\" inside token '" + tokenTags[i] + "'!");
}
sentence[i] = tokenTags[i].substring(0, split);
tags[i] = tokenTags[i].substring(split + 1);
}
return new POSSample(sentence, tags);
}
我是 opennlp 的新手,需要帮助来自定义解析器 我使用了带有预训练模型 en-pos-maxtent.bin 的 opennlp 解析器,用相应的语音部分标记新的原始英语句子,现在我想自定义标签
谁能指出 openNLP NameFinder 模块使用的算法? 代码很复杂,而且文档很少,并且作为一个黑盒(提供默认模型)使用它给我的印象是它主要是启发式的。 以下是输入和输出的一些示例: 输入:
我收到无效格式异常。我看到有人建议从 en-pos-maxent.bin 文件中删除 tags.tagdict 文件,但我不知道该怎么做。谁能给我解释一下 ava.io.FileInputSt
我收到无效格式异常。我看到有人建议从 en-pos-maxent.bin 文件中删除 tags.tagdict 文件,但我不知道该怎么做。谁能给我解释一下吗 ava.io.FileInputS
我正在尝试使用 Apache OpenNLP 1.7 构建自定义 NER。来自可用文档 Here ,我开发了如下代码 import java.io.BufferedOutputStream; impo
我们有组织名称同义词的数据库(例如 BT 是 British Telecom。我们使用 OpenNLP 从文本块中提取实体和关键字。有没有办法告诉 OpenNLP 使用我们的数据库数据(例如,如果它找
我刚开始使用 openNLP 来识别名称。我正在使用开放 NLP 附带的模型 (en-ner-person.bin)。我注意到虽然它可以识别我们、英国和欧洲的名字,但它无法识别印度或日本的名字。我的问
有谁知道我在哪里可以找到如何在 OpenNLP 库中使用 SimpleLemmatizer() 类的示例,以及在哪里可以找到示例英语词典?文档中似乎缺少它。 最佳答案 您可以从这里下载字典 - en-
有没有关于 OpenNLP 中解析器标签含义的文档?我知道 POS 标签类型遵循 TreeBank 约定,但不幸的是我没有找到有关解析器标签的任何信息,例如“SBAR”等。 该文档是否存在于某处还是我
我以前用过Stanford CoreNLP,这次想研究一下OpenNLP。是否可以创建自己的注释器?例如,我想分析文本并仅挑选颜色或飞机名称。 斯坦福 NER 让我创建自己的 NER 模型来实现此目的
您好,已经引用过 this , this , this和 this但仍然发现构建自定义名称查找器模型很困难..这是代码: public class CustomClassifierTrainer {
我目前正在浏览 opennlp 源代码,试图找到/理解它们用于分块的语法。这不是最简单的任务之一。我开始研究 chunkermodel 和相关的类,但还没有走得太远...... 有人搜过这个吗?如果有
我正在尝试使用 OpenNLP 标记器对文本文件进行标记。我所做的,我读取 .txt 文件并将其存储在列表中,想要迭代每一行,标记该行并将标记化的行写入新文件。 行中: tokens[i] = tok
嘿,我正在尝试为 opennlp 制作训练数据来检测句子中的位置名称。我陷入了这样的困境: North Manchester Hospital 我确实需要检测这两个对象,医院名称和城市名称。我
我正在尝试使用官方 OpenNLP 网站手册示例来训练新模型,示例如下: Charset charset = Charset.forName("UTF-8"); ObjectStrea
我一直在尝试使用命令行界面来训练我的模型,如下所示: opennlp TokenNameFinderTrainer -model en-ner-pincode.bin -iterations 500
我正在使用 OpenNLP 的模型构建器插件来创建更好的 NER 模型。据此post ,我使用了markg发布的代码: public class ModelBuilderAddonUse { pr
我正在做一个项目,我正在使用 OpenNLP 的一些功能。我需要的一个功能是词干分析器。我用谷歌搜索了一下,发现据说它在 opennlp.tools.stemmer 包中有一个 Porter 词干分析
我有两个模型文件:1)en-politicians-ner.bin 2)en-engineers-ner.bin 现在,有没有办法将这两个模型添加到一个单个 NameFinderME 对象中。使用这两
我正在使用 Java OpenNLP 进行 NER,但我不确定如何使用我训练过的自定义模型来检测多个单词(例如 New York、Bruno Mars、Hong Kong)。 我的训练数据确实涵盖了多
我是一名优秀的程序员,十分优秀!