- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试使用 spaCy 来标记文本文档,其中命名实体包含在 XML 标记中。例如。 TEI -喜欢<personName>Harry</personName> goes to <orgName>Hogwarts</orgName>
.
import spacy
nlp = spacy.load('en')
txt = '<personName>Harry</personName> goes to <orgName>Hogwarts</orgName>. <personName>Sally</personName> lives in <locationName>London</locationName>.'
doc = nlp(txt)
sents = list(doc.sents)
for i, s in enumerate(doc.sents):
print("{}: {}".format(i, s))
但是,XML 标记会导致句子拆分:
0: <personName>
1: Harry</personName> goes to <orgName>
2: Hogwarts</orgName>.
3: <personName>
4: Sally</personName> lives in <
5: locationName>
6: London</locationName>.
我怎么只能得到2个句子?我知道 spaCy 支持 custom tokenizer但由于文本的其余部分是标准的,我想继续使用内置的或者在其基础上构建以识别 XML 注释。
最佳答案
我已经设法通过对标记进行计数并跟踪每个标记具有哪些注释来做到这一点,这有点令人费解,但可以完成这项工作。
准备:
pattern = re.compile('</?[a-zA-Z_]+>')
pattern_start = re.compile('<[a-zA-Z_]+>')
pattern_end = re.compile('</[a-zA-Z_]+>')
# xml matches the pattern above
def annotate(xml):
if xml[1] == '/':
return (xml[2:-1] + '-end')
else:
return (xml[1:-1] + '-start')
nlp = spacy.load('en')
txt = '<personName>Harry Potter</personName> goes to \
<orgName>Hogwarts</orgName>. <personName>Sally</personName> \
lives in #<locationName>London</locationName>.'
words = txt.split()
stripped_words = []
# A mapping between token index and its annotations
annotations = {}
all_tokens = []
# A mapping between stripped_words index and whether it's preceded by a space
no_space = {}
现在让我们遍历单词并检查注释。我们将每个拆分为三个部分:前缀、标签和后缀。例如。对于 <orgName>@Hogwarts.</orgName>
他们会是@
, Hogwarts
, 和 .
, 分别。
for i, w in enumerate(words):
matches = re.findall(pattern, w)
w_annotations = []
if len(matches) > 0:
for m in matches:
w_annotations.append(annotate(m))
splitted_start = re.split(pattern_start, w)
# TODO: we assume no word contains more than one annotation
if len(splitted_start) > 1:
prefix, rest = splitted_start
if len(prefix) > 0:
tokens = list(nlp(prefix))
all_tokens.extend(tokens)
# The prefix requires space before, but the tag itself not
no_space[len(stripped_words) + 1] = True
stripped_words.append(prefix)
else:
rest = splitted_start[0]
splitted_end = re.split(pattern_end, rest)
tag = splitted_end[0]
stripped_words.append(tag)
tokens = list(nlp(tag))
n_tokens = len(all_tokens)
for j, t in enumerate(tokens):
annotations[n_tokens + j] = w_annotations
all_tokens.extend(tokens)
if len(splitted_end) > 1:
suffix = splitted_end[1]
if len(suffix) > 0:
tokens = list(nlp(suffix))
all_tokens.extend(tokens)
no_space[len(stripped_words)] = True
stripped_words.append(suffix)
else:
stripped_words.append(w)
tokens = list(nlp(w))
all_tokens.extend(tokens)
最后,让我们打印带有注释的句子:
stripped_txt = stripped_words[0]
for i, w in enumerate(stripped_words[1:]):
if (i + 1) in no_space:
stripped_txt += w
else:
stripped_txt += ' ' + w
doc = nlp(stripped_txt)
n_tokens = 0
for i, s in enumerate(doc.sents):
print("sentence{}: {}".format(i, s))
for j, t in enumerate(list(s)):
if n_tokens in annotations:
anons = annotations[n_tokens]
else:
anons = []
print("\t token{}: {}, annotations: {}".format(n_tokens, t, anons))
n_tokens += 1
结果:
sentence0: Harry Potter goes to Hogwarts.
token0: Harry, annotations: ['personName-start']
token1: Potter, annotations: ['personName-end']
token2: goes, annotations: []
token3: to, annotations: []
token4: Hogwarts, annotations: ['orgName-start', 'orgName-end']
token5: ., annotations: []
sentence1: Sally lives in #London.
token6: Sally, annotations: ['personName-start', 'personName-end']
token7: lives, annotations: []
token8: in, annotations: []
token9: #, annotations: []
token10: London, annotations: ['locationName-start', 'locationName-end']
token11: ., annotations: []
完整代码: https://gist.github.com/dimidd/1aba8b57643d5936f42670f0c5f344e4
关于python - 标记类似 TEI 的文本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49733653/
虽然我在 reactjs 组件(组件名称为 renderLocationLink)的渲染方法返回的 html 中包含了 a 标签的 onclick 处理程序,但渲染正确地发生了 onclick 处理程
我必须以 docx 格式存储一些文档,但无法忍受使用 msword:我想编辑某种纯文本标记,除了基于 XML 的东西(我也不喜欢那样)和从/到那个到/从 docx 转换。 有什么选择吗? 编辑:由于人
有一个页面,其 anchor 标记在延迟后变得可点击。我想使用用户脚本在可点击后点击它。 页面加载时,HTML 源代码为: Download 延迟一段时间后,#button 变
我正在将 XML 文件解析为 pandas 数据帧。使用下面的代码我可以成功获取所有内容,但是这使用了完整 XML 的编辑版本。完整的 XML 在主数据表之上有一堆摘要数据,请参阅完整的 XML he
目前我正在研究 xml.sax 解析器来解析 xml 文件 假设我有以下代码 filepath = 'users/file.xml' try: parser = xml.sax.make_pa
我正在尝试构建一种语法来解释用户输入的文本,搜索引擎风格。它将支持 AND、OR、NOT 和 ANDNOT bool 运算符。我几乎所有东西都在工作,但我想添加一个规则,将引用字符串之外的两个相邻关键
我遇到了 Terraform EKS 标记的问题,并且似乎没有找到可行的解决方案来在创建新集群时标记所有 VPC 子网。 提供一些上下文:我们有一个 AWS VPC,我们在其中将多个 EKS 集群部署
我是xpath的新手,对此了解不多。我知道有一种方法可以使用xpath在xml / xhtml文件中查找特定标签。就我而言,我试图找到第一个(a)链接元素。不幸的是,我的xpath字符串[// a [
我在索引页上的产品卡上遇到问题。在产品卡内部,我有 Vue 组件来渲染表单(数量和添加到购物车按钮)。当我单击“添加到购物车”按钮时,我得到了预期的结果。响应被发送到根 vue 组件,然后我看到产品已
html setMouse(true)} onMouseEnter={() => setMouse(false)} className='resume-container'> CSS .resum
我在组件中有一组枚举,如下所示: type TOption = (clVisible, clVisibleAlways, clRenderable, clEditable); TOptions
是否有出于性能考虑的javadoc标签? 人们可以想象: /** * ...other javadoc tags... * @perform Expected to run in O(n) tim
html setMouse(true)} onMouseEnter={() => setMouse(false)} className='resume-container'> CSS .resum
我有一个包含多个小子图的图。目标是当且仅当子图中的所有节点都是蓝色时,才将子图中的所有蓝色节点标记为红色。如果子图中的一个节点具有不同的颜色,绿色,那么我们将不会更改该子图中节点的颜色。 这是我正在使
我正在使用 json-ld 开发事件标记以包含在确认电子邮件中。 我的一些事件会定期重复发生。但是,最新的 Schema.org 规范不支持重复发生的事件,因此我遵循了此处提供的建议:http://l
我创建了一个插件,可以添加带有相应行号的标记。现在,这很棒,因为它现在显示在“标记” View 中。有没有办法当我双击标记上的一行时,它会转到标记指示的行? 谢谢。 最佳答案 双击“标记” View
是否有一个插件具有与 Facebook 标记类似的行为? 它的特别之处在于它具有: 在键入的单词之间自动完成 特殊输出的 html(与另一个输入字段同步) 最佳答案 您可以使用jquery提及输入pl
有没有更好的方法来读取java文件中的 token ?我目前正在使用 StringTokenizer 来分割 token 。但在大多数情况下,它的效率可能非常低,因为您必须逐个 token 地读取 t
我想知道是否有某种方法可以标记文件来识别该文件是否包含x。 考虑以下示例: 在批量转换过程中,我正在创建一个日志文件,其中列出了各个转换的成功/失败。 所以流程如下: 开始转换过程 创建名为batch
我一直在尝试模拟点击标签,但这并没有像我需要的那样工作。我的 anchor 标记看起来像这样 Download this pic 正常的 $("a").click() 或 trigger('cli
我是一名优秀的程序员,十分优秀!