gpt4 book ai didi

python - 只有 "Whitespace"规则的 Spacy 分词器

转载 作者:行者123 更新时间:2023-12-05 08:49:02 49 4
gpt4 key购买 nike

我想知道 spacy 分词器是否可以仅使用“空格”规则分词。例如:

sentence= "(c/o Oxford University )"

通常使用spacy的如下配置:

nlp = spacy.load("en_core_news_sm")
doc = nlp(sentence)
for token in doc:
print(token)

结果是:

 (
c
/
o
Oxford
University
)

相反,我想要如下输出(使用 spacy):

(c/o 
Oxford
University
)

是否可以使用 spacy 获得这样的结果?

最佳答案

让我们用自定义 Tokenizer 更改 nlp.tokenizer使用 token_match 正则表达式:

import re
import spacy
from spacy.tokenizer import Tokenizer

nlp = spacy.load('en_core_web_sm')
text = "This is it's"
print("Before:", [tok for tok in nlp(text)])

nlp.tokenizer = Tokenizer(nlp.vocab, token_match=re.compile(r'\S+').match)
print("After :", [tok for tok in nlp(text)])

Before: [This, is, it, 's]
After : [This, is, it's]

您可以通过添加自定义后缀、前缀和中缀规则进一步调整 Tokenizer

另一种更细粒度的方法是找出为什么 it's token 像 nlp.tokenizer.explain() 一样被拆分:

import spacy
from spacy.tokenizer import Tokenizer
nlp = spacy.load('en_core_web_sm')
text = "This is it's. I'm fine"
nlp.tokenizer.explain(text)

你会发现拆分是由于 SPECIAL 规则造成的:

[('TOKEN', 'This'),
('TOKEN', 'is'),
('SPECIAL-1', 'it'),
('SPECIAL-2', "'s"),
('SUFFIX', '.'),
('SPECIAL-1', 'I'),
('SPECIAL-2', "'m"),
('TOKEN', 'fine')]

可以更新以从异常中删除“它是”,例如:

exceptions = nlp.Defaults.tokenizer_exceptions
filtered_exceptions = {k:v for k,v in exceptions.items() if k!="it's"}
nlp.tokenizer = Tokenizer(nlp.vocab, rules = filtered_exceptions)
[tok for tok in nlp(text)]

[This, is, it's., I, 'm, fine]

或完全删除撇号上的拆分:

filtered_exceptions = {k:v for k,v in exceptions.items() if "'" not in k}
nlp.tokenizer = Tokenizer(nlp.vocab, rules = filtered_exceptions)
[tok for tok in nlp(text)]

[This, is, it's., I'm, fine]

注意标记上的点,这是由于未指定后缀规则。

关于python - 只有 "Whitespace"规则的 Spacy 分词器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65160277/

49 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com