- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我目前正在尝试使用 spacy
训练文本分类器,但我遇到了以下问题:使用 spacy.blank('en') 创建空白模型有什么区别
并使用预训练模型 spacy.load('en_core_web_sm')
。只是为了看看我写这段代码的区别:
text = "hello everyone, it's a wonderful day today"
nlp1 = spacy.load('en_core_web_sm')
for token in nlp1(text):
print(token.text, token.lemma_, token.is_stop, token.pos_)
它给了我以下结果:
hello hello False INTJ
everyone everyone True PRON
, , False PUNCT
it -PRON- True PRON
's be True AUX
a a True DET
wonderful wonderful False ADJ
day day False NOUN
today today False NOUN
然后我尝试了这个(对于相同的文本)
nlp2 = spacy.blank('en')
for token in nlp2(text):
print(token.text, token.lemma_, token.is_stop, token.pos_)
结果是
hello hello False
everyone everyone True
, , False
it -PRON- True PRON
's 's True
a a True
wonderful wonderful False
day day False
today today False
不仅结果不同(例如,'s
的引理不同),而且空白模型中的大多数单词也没有词性标注。
很明显,我需要一个预训练模型来规范化我的数据。但我仍然不明白我的数据分类器应该如何处理。我应该 1) 创建一个空白模型来训练文本分类器(使用 nlp.update()
)并加载一个预训练模型来删除停用词、词形还原和 POS 标记,或者 2) 只加载一个预训练模型两者:规范化和训练我的文本分类器?
提前感谢您的任何建议!
最佳答案
如果您使用的是 spacy 的文本分类器,那么从空白模型开始就可以了。 TextCategorizer
不使用任何其他管道组件的功能。
如果您使用 spacy 为另一个文本分类器预处理数据,那么您需要确定哪些组件对您的任务有意义。预训练模型默认加载标记器、解析器和 NER 模型。
lemmatizer 不是作为单独的组件实现的,它是其中最复杂的部分。它尝试使用可用数据和模型提供最佳结果:
如果您没有安装软件包 spacy-lookups-data
并且您创建了一个空白模型,您将获得小写形式作为默认/虚拟引理。
如果您安装了包 spacy-lookups-data
并创建了一个空白模型,它会自动加载适用于该语言的查找引理。
如果您加载提供的模型并且管道包含标注器,则词形还原器会切换到更好的基于规则的词形还原器,前提是该语言可用 spacy(目前:希腊语、英语、法语、挪威语 Bokmål、荷兰语、瑞典语)。提供的模型还始终包含该语言的查找数据,因此可以在标记器未运行时使用它们。
如果你想从提供的模型中获取查找引理,你可以通过加载没有标记器的模型来查看它们:
import spacy
nlp = spacy.load("en_core_web_sm", disable=["tagger"])
一般来说,查找引理的质量不是很好(没有信息可以帮助处理模棱两可的情况),基于规则的引理会好很多,但是运行标注器确实需要额外的时间,所以你可以选择如果质量足以完成您的任务,查找引理可以加快速度。
如果您不使用解析器或 NER 模型进行预处理,您可以通过禁用它们来加快速度:
nlp = spacy.load("en_core_web_sm", disable=["ner", "parser"])
关于python - spacy 中空白模型和预训练模型之间的区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60888020/
我有一段文本和索引条目,其中一些指示出现在文本中的重要多词表达 (MWE)(例如生物学文本的“海绵骨”)。我想使用这些条目在 spaCy 中构建自定义匹配器,以便我可以识别文本中出现的 MWE。一个附
我想在 Spacy 中使用德语 lemmatizer,但我对结果感到非常惊讶: import spacy nlp = spacy.load("de_dep_news_trf") [token.lemm
要将我的句子拆分为标记,我正在执行以下操作,这很慢 import spacy nlp = spacy.load("en_core_web_lg") text = "This is a test.
我已经使用空间很长一段时间了,我真的很喜欢这种置换 有没有一种方法可以让我们在网页中从我的数据集中提供多个文本,如一个小箭头,以重定向到下一条记录并标记实体。 我使用的代码如下。 def valida
我有变量 trainData它具有以下简化格式。 [ ('Paragraph_A', {"entities": [(15, 26, 'DiseaseClass'), (443, 449, 'Disea
我正在尝试测试在另一台计算机上运行的模型,但是当我尝试将其导入我的笔记本时,出现以下错误:ModuleNotFoundError:没有名为“spacy.pipeline.pipes”的模块; 'spa
我正在尝试测试在另一台计算机上运行的模型,但是当我尝试将其导入我的笔记本时,出现以下错误:ModuleNotFoundError:没有名为“spacy.pipeline.pipes”的模块; 'spa
当处理数百万文档并将它们保存为空间文档以供以后使用(更多处理、可视化、提取特征)时,一种明显的扩展解决方案是并行/分布式处理。这意味着每个并行进程都将拥有自己的 Vocab,这些 Vocab 可能会随
我正在使用 Spacy 大型模型,但它错误地使用与我的领域无关的类别标记实体,例如“艺术作品”可能导致它无法识别本应属于组织的内容。 是否可以限制 NER 仅返回人员、位置和组织? 最佳答案 简答:
我正在像这样使用 SpaCy 创建一个短语匹配器: import spacy from spacy.matcher import PhraseMatcher nlp = spacy.load("en"
我正在尝试使用 spaCy Matcher 工作获得以下简单示例: import en_core_web_sm from spacy.matcher import Matcher nlp = en_c
它没有出现在 pip list zeke$ pip list | grep spacy spacy (1.7.3) 如何获取模型名称? 我试过了,还是不行 echo "spaCy model:" py
我在 "Training an additional entity type" 中有新 NER 类型的训练数据spaCy 文档的部分。 TRAIN_DATA = [ ("Horses are
给定一个 token ,它是具有多个 token 的命名实体的一部分,是否有直接方法来获取该实体的跨度? 例如,考虑这个有两个词命名实体的句子: >>> doc = nlp("This year wa
如何限制 Spacy 使用的 CPU 数量? 我想从大量句子中提取词性和命名实体。由于 RAM 的限制,我首先使用 Python NLTK 将我的文档解析为句子。然后我遍历我的句子并使用 nlp.pi
显然 for doc in nlp.pipe(sequence) 比运行 for el in order: doc = nlp(el) .. 我遇到的问题是我的序列实际上是一个元组序列,其中包含用于将
显然 for doc in nlp.pipe(sequence) 比运行 for el in order: doc = nlp(el) .. 我遇到的问题是我的序列实际上是一个元组序列,其中包含用于将
我已经下载了 spaCy,但每次尝试 nlp = spacy.load("en_core_web_lg") 命令时,我都会收到此错误: OSError:[E050] 找不到模型“en_core_web
到目前为止,我一直在使用 spacy 2.3.1,并为我的自定义语言类(class)训练并保存了几个管道。但是现在使用 spacy 3.0 和 spacy.load('model-path') 我遇到
我安装了 spacy 使用 python3 install spacy 并使用下载了两个英文模型 python3 -m spacy download en 和 python3 -m spacy dow
我是一名优秀的程序员,十分优秀!