- 使用 Spring Initializr 创建 Spring Boot 应用程序
- 在Spring Boot中配置Cassandra
- 在 Spring Boot 上配置 Tomcat 连接池
- 将Camel消息路由到嵌入WildFly的Artemis上
本文整理了Java中opennlp.tools.tokenize.WhitespaceTokenizer
类的一些代码示例,展示了WhitespaceTokenizer
类的具体用法。这些代码示例主要来源于Github
/Stackoverflow
/Maven
等平台,是从一些精选项目中提取出来的代码,具有较强的参考意义,能在一定程度帮忙到你。WhitespaceTokenizer
类的具体详情如下:
包路径:opennlp.tools.tokenize.WhitespaceTokenizer
类名称:WhitespaceTokenizer
[英]This tokenizer uses white spaces to tokenize the input text. To obtain an instance of this tokenizer use the static final INSTANCE
field.
[中]此标记器使用空格标记输入文本。要获取此标记器的实例,请使用静态finalINSTANCE
字段。
代码示例来源:origin: apache/opennlp
public static POSSample parse(String sentenceString) throws InvalidFormatException {
String[] tokenTags = WhitespaceTokenizer.INSTANCE.tokenize(sentenceString);
String[] sentence = new String[tokenTags.length];
String[] tags = new String[tokenTags.length];
for (int i = 0; i < tokenTags.length; i++) {
int split = tokenTags[i].lastIndexOf("_");
if (split == -1) {
throw new InvalidFormatException("Cannot find \"_\" inside token '" + tokenTags[i] + "'!");
}
sentence[i] = tokenTags[i].substring(0, split);
tags[i] = tokenTags[i].substring(split + 1);
}
return new POSSample(sentence, tags);
}
代码示例来源:origin: apache/opennlp
@Override
protected Span[] tokenize(CAS cas, AnnotationFS sentence) {
return opennlp.tools.tokenize.WhitespaceTokenizer.INSTANCE.
tokenizePos(sentence.getCoveredText());
}
}
代码示例来源:origin: apache/opennlp
public DocumentSample read() throws IOException {
String sampleString = samples.read();
if (sampleString != null) {
// Whitespace tokenize entire string
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(sampleString);
DocumentSample sample;
if (tokens.length > 1) {
String category = tokens[0];
String[] docTokens = new String[tokens.length - 1];
System.arraycopy(tokens, 1, docTokens, 0, tokens.length - 1);
sample = new DocumentSample(category, docTokens);
}
else {
throw new IOException("Empty lines, or lines with only a category string are not allowed!");
}
return sample;
}
return null;
}
}
代码示例来源:origin: apache/opennlp
Objects.requireNonNull(separatorChars, "separatorChars must not be null");
Span[] whitespaceTokenSpans = WhitespaceTokenizer.INSTANCE.tokenizePos(sampleString);
代码示例来源:origin: apache/opennlp
String typeName = WhitespaceTokenizer.INSTANCE.tokenize(line)[0];
代码示例来源:origin: apache/opennlp
Span[] tokens = WhitespaceTokenizer.INSTANCE.tokenizePos(d);
newTokens.clear();
tokProbs.clear();
代码示例来源:origin: apache/opennlp
@Override
public SentenceSample read() throws IOException {
SentenceSample sample = samples.read();
if (sample != null) {
List<String> sentenceTexts = new ArrayList<>();
for (Span sentenceSpan : sample.getSentences()) {
sentenceTexts.add(sample.getDocument().substring(sentenceSpan.getStart(), sentenceSpan.getEnd()));
}
StringBuilder documentText = new StringBuilder();
List<Span> newSentenceSpans = new ArrayList<>();
for (String sentenceText : sentenceTexts) {
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(sentenceText);
int begin = documentText.length();
documentText.append(detokenizer.detokenize(tokens, null));
newSentenceSpans.add(new Span(begin, documentText.length()));
documentText.append(' ');
}
return new SentenceSample(documentText, newSentenceSpans.toArray(new Span[newSentenceSpans.size()]));
}
return null;
}
}
代码示例来源:origin: apache/opennlp
Span[] tokens = WhitespaceTokenizer.INSTANCE.tokenizePos(line);
代码示例来源:origin: apache/opennlp
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(line);
代码示例来源:origin: apache/opennlp
Span[] candTokens = WhitespaceTokenizer.INSTANCE.tokenizePos(sent);
代码示例来源:origin: apache/opennlp
String[] parts = WhitespaceTokenizer.INSTANCE.tokenize(taggedTokens);
代码示例来源:origin: org.apache.opennlp/opennlp-uima
@Override
protected Span[] tokenize(CAS cas, AnnotationFS sentence) {
return opennlp.tools.tokenize.WhitespaceTokenizer.INSTANCE.
tokenizePos(sentence.getCoveredText());
}
}
代码示例来源:origin: apache/opennlp
@Test
public void testTokenizationOfStringWithoutTokens() {
Assert.assertEquals(0, WhitespaceTokenizer.INSTANCE.tokenize("").length); // empty
Assert.assertEquals(0, WhitespaceTokenizer.INSTANCE.tokenize(" ").length); // space
Assert.assertEquals(0, WhitespaceTokenizer.INSTANCE.tokenize(" ").length); // tab
Assert.assertEquals(0, WhitespaceTokenizer.INSTANCE.tokenize(" ").length);
}
}
代码示例来源:origin: org.apache.opennlp/opennlp-tools
Objects.requireNonNull(separatorChars, "separatorChars must not be null");
Span[] whitespaceTokenSpans = WhitespaceTokenizer.INSTANCE.tokenizePos(sampleString);
代码示例来源:origin: apache/opennlp
@Test
public void testOneToken() {
Assert.assertEquals("one", WhitespaceTokenizer.INSTANCE.tokenize("one")[0]);
Assert.assertEquals("one", WhitespaceTokenizer.INSTANCE.tokenize(" one")[0]);
Assert.assertEquals("one", WhitespaceTokenizer.INSTANCE.tokenize("one ")[0]);
}
代码示例来源:origin: ai.idylnlp/idylnlp-opennlp-tools-1.8.3
Objects.requireNonNull(separatorChars, "separatorChars must not be null");
Span[] whitespaceTokenSpans = WhitespaceTokenizer.INSTANCE.tokenizePos(sampleString);
代码示例来源:origin: apache/opennlp
/**
* Tests if it can tokenize whitespace separated tokens.
*/
@Test
public void testWhitespaceTokenization() {
String text = "a b c d e f ";
String[] tokenizedText = WhitespaceTokenizer.INSTANCE.tokenize(text);
Assert.assertTrue("a".equals(tokenizedText[0]));
Assert.assertTrue("b".equals(tokenizedText[1]));
Assert.assertTrue("c".equals(tokenizedText[2]));
Assert.assertTrue("d".equals(tokenizedText[3]));
Assert.assertTrue("e".equals(tokenizedText[4]));
Assert.assertTrue("f".equals(tokenizedText[5]));
Assert.assertTrue(tokenizedText.length == 6);
}
代码示例来源:origin: org.apache.opennlp/opennlp-tools
Span[] tokens = WhitespaceTokenizer.INSTANCE.tokenizePos(d);
newTokens.clear();
tokProbs.clear();
代码示例来源:origin: apache/opennlp
@Test
public void testURL() throws Exception {
String[] tokens = WhitespaceTokenizer.INSTANCE.tokenize(text);
Span[] find = regexNameFinder.find(tokens);
List<Span> spanList = Arrays.asList(find);
Span urlSpan = new Span(13, 14, "URL");
Assert.assertTrue(spanList.contains(urlSpan));
Assert.assertEquals("https://www.google.com", tokens[urlSpan.getStart()]);
}
代码示例来源:origin: ai.idylnlp/idylnlp-opennlp-tools-1.8.3
Span[] tokens = WhitespaceTokenizer.INSTANCE.tokenizePos(d);
newTokens.clear();
tokProbs.clear();
我正在开发一个应用程序,它使用 OAuth - 基于 token 的身份验证。 考虑到我们拥有访问和刷新 token ,这就是流程的样子。 Api call -> intercepter append
如何取消标记此代码的输出? 类(class)核心: def __init__(self, user_input): pos = pop(user_input) subject = ""
当我使用命令 kubectl 时与 --token标记并指定 token ,它仍然使用 kubeconfig 中的管理员凭据文件。 这是我做的: NAMESPACE="default" SERVICE
我正在制作 SPA,并决定使用 JWT 进行身份验证/授权,并且我已经阅读了一些关于 Tokens 与 Cookies 的博客。我了解 cookie 授权的工作原理,并了解基本 token 授权的工作
我正在尝试从应用服务获取 Google 的刷新 token ,但无法。 日志说 2016-11-04T00:04:25 PID[500] Verbose Received request: GET h
我正在开发一个项目,只是为了为 java 开发人员测试 eclipse IDE。我是java新手,所以我想知道为什么它不起作用,因为我已经知道该怎么做了。这是代码: public class ecli
我正在尝试使用 JwtSecurityTokenHandler 将 token 字符串转换为 jwt token 。但它出现错误说 IDX12709: CanReadToken() returned
我已阅读文档 Authentication (来自 Facebook 的官方)。我仍然不明白 Facebook 提供的这三种访问 token 之间的区别。网站上给出了一些例子,但我还是不太明白。 每个
我的部署服务器有时有这个问题,这让我抓狂,因为我无法在本地主机中重现,我已经尝试在我的 web.config 中添加机器 key ,但没有成功远。 它只发生在登录页面。 我的布局:
我已经设法获得了一个简单的示例代码,它可以创建一个不记名 token ,还可以通过阅读 stackoverflow 上的其他论坛来通过刷新 token 请求新的不记名 token 。 启动类是这样的
如果我有以前的刷新 token 和使用纯 php 的访问 token ,没有 Google Api 库,是否可以刷新 Google Api token ?我在数据库中存储了许多用户刷新和访问 toke
我通过 Java 应用程序使用 Google 电子表格时遇到了问题。我创建了应用程序,该应用程序运行了 1 年多,没有任何问题,我什至在 Create Spreadsheet using Google
当我有一个有效的刷新 token 时,我正在尝试使用 Keycloak admin REST API 重新创建访问 token 。 我已经通过调用 POST/auth/realms/{realm}/p
我正在尝试让第三方 Java 客户端与我编写的 WCF 服务进行通信。 收到消息时出现如下异常: Cannot find a token authenticator for the 'System.I
在尝试将数据插入到我的 SQl 数据库时,我收到以下错误 System.Data.SqlServerCe.SqlCeException: There was an error parsing the
使用数据库 session token 系统,我可以让用户使用用户名/密码登录,服务器可以生成 token (例如 uuid)并将其存储在数据库中并将该 token 返回给客户端。其上的每个请求都将包
我最近注册了 Microsoft Azure 并设置了认知服务帐户。使用 Text Translation API Documentation 中的说明我能够使用 interactive online
我使用 IAntiforgery API 创建了一个 ASP.Net Core 2 应用程序。 这提供了一种返回 cookie 的方法。 客户端获取该 cookie,并在后续 POST 请求中将该值放
我正在使用 spacy 来匹配某些文本(意大利语)中的特定表达式。我的文本可以多种形式出现,我正在尝试学习编写一般规则的最佳方式。我有如下 4 个案例,我想写一个适用于所有案例的通用模式。像这样的东西
我无法理解 oauth 2.0 token 的原则处理。 我的场景是,我有一个基于 web 的前端后端系统,带有 node.js 和 angular 2。用户应该能够在此站点上上传视频。然后创建一些额
我是一名优秀的程序员,十分优秀!