- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我对 Python NLP 比较陌生,我正在尝试使用 SpaCy 处理 CSV 文件。我可以使用 Pandas 很好地加载该文件,但是当我尝试使用 SpaCy 的 nlp 函数处理该文件时,编译器在文件内容的大约 5% 处出错。
代码块如下:
import pandas as pd
df = pd.read_csv('./reviews.washington.dc.csv')
import spacy
nlp = spacy.load('en')
for parsed_doc in nlp.pipe(iter(df['comments']), batch_size=1, n_threads=4):
print (parsed_doc.text)
我也尝试过:
df['parsed'] = df['comments'].apply(nlp)
结果相同。
我收到的回溯是:
Traceback (most recent call last):
File "/Users/john/Downloads/spacy_load.py", line 11, in <module>
for parsed_doc in nlp.pipe(iter(df['comments']), batch_size=1,
n_threads=4):
File "/usr/local/lib/python3.6/site-packages/spacy/language.py",
line 352, in pipe for doc in stream:
File "spacy/syntax/parser.pyx", line 239, in pipe
(spacy/syntax/parser.cpp:8912)
File "spacy/matcher.pyx", line 465, in pipe (spacy/matcher.cpp:9904)
File "spacy/syntax/parser.pyx", line 239, in pipe (spacy/syntax/parser.cpp:8912)
File "spacy/tagger.pyx", line 231, in pipe (spacy/tagger.cpp:6548)
File "/usr/local/lib/python3.6/site-packages/spacy/language.py", line 345,
in <genexpr> stream = (self.make_doc(text) for text in texts)
File "/usr/local/lib/python3.6/site-packages/spacy/language.py", line 293,
in <lambda> self.make_doc = lambda text: self.tokenizer(text)
TypeError: Argument 'string' has incorrect type (expected str, got float)
任何人都可以解释为什么会发生这种情况,以及我如何解决它吗?我已经尝试了该网站的各种解决方法,但均无济于事。 Try/except block 也没有效果。
最佳答案
我刚刚遇到了与您收到的错误非常相似的错误。
>>> c.add_texts(df.DetailedDescription.astype('object'))
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "C:\Users\Anonymous\AppData\Local\Programs\Python\Python36\lib\site
-packages\textacy\corpus.py", line 297, in add_texts
for i, spacy_doc in enumerate(spacy_docs):
File "C:\Users\Anonymous\AppData\Local\Programs\Python\Python36\lib\site
-packages\spacy\language.py", line 554, in pipe
for doc in docs:
File "nn_parser.pyx", line 369, in pipe
File "cytoolz/itertoolz.pyx", line 1046, in cytoolz.itertoolz.partition_all.__
next__ (cytoolz/itertoolz.c:14538)
for item in self.iterseq:
File "nn_parser.pyx", line 369, in pipe
File "cytoolz/itertoolz.pyx", line 1046, in cytoolz.itertoolz.partition_all.__
next__ (cytoolz/itertoolz.c:14538)
for item in self.iterseq:
File "pipeline.pyx", line 395, in pipe
File "cytoolz/itertoolz.pyx", line 1046, in cytoolz.itertoolz.partition_all.__
next__ (cytoolz/itertoolz.c:14538)
for item in self.iterseq:
File "C:\Users\Anonymous\AppData\Local\Programs\Python\Python36\lib\site
-packages\spacy\language.py", line 534, in <genexpr>
docs = (self.make_doc(text) for text in texts)
File "C:\Users\Anonymous\AppData\Local\Programs\Python\Python36\lib\site
-packages\spacy\language.py", line 357, in make_doc
return self.tokenizer(text)
TypeError: Argument 'string' has incorrect type (expected str, got float)
最后,我遇到了一个解决方案,即使用 Pandas 数据帧将值转换为 Unicode,然后将值作为 native 数组检索并将其输入到 Textacy 的 add_texts
方法中 语料库
对象。
c = textacy.corpus.Corpus(lang='en_core_web_lg')
c.add_texts(df.DetailedDescription.astype('unicode').values)
df.DetailedDescription.astype('unicode').values
这样做允许我将所有文本添加到我的语料库中,尽管尝试事先强制加载符合 Unicode 的文件(下面包含代码片段,以防对其他人有帮助)。
with codecs.open('Base Data\Base Data.csv', 'r', encoding='utf-8', errors='replace') as base_data:
df = pd.read_csv(StringIO(re.sub(r'(?!\n)[\x00-\x1F\x80-\xFF]', '', base_data.read())), dtype={"DetailedDescription":object, "OtherDescription":object}, na_values=[''])
关于Python SpaCy 创建 nlp 文档 - 参数 'string' 的类型不正确,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45748424/
我有一段文本和索引条目,其中一些指示出现在文本中的重要多词表达 (MWE)(例如生物学文本的“海绵骨”)。我想使用这些条目在 spaCy 中构建自定义匹配器,以便我可以识别文本中出现的 MWE。一个附
我想在 Spacy 中使用德语 lemmatizer,但我对结果感到非常惊讶: import spacy nlp = spacy.load("de_dep_news_trf") [token.lemm
要将我的句子拆分为标记,我正在执行以下操作,这很慢 import spacy nlp = spacy.load("en_core_web_lg") text = "This is a test.
我已经使用空间很长一段时间了,我真的很喜欢这种置换 有没有一种方法可以让我们在网页中从我的数据集中提供多个文本,如一个小箭头,以重定向到下一条记录并标记实体。 我使用的代码如下。 def valida
我有变量 trainData它具有以下简化格式。 [ ('Paragraph_A', {"entities": [(15, 26, 'DiseaseClass'), (443, 449, 'Disea
我正在尝试测试在另一台计算机上运行的模型,但是当我尝试将其导入我的笔记本时,出现以下错误:ModuleNotFoundError:没有名为“spacy.pipeline.pipes”的模块; 'spa
我正在尝试测试在另一台计算机上运行的模型,但是当我尝试将其导入我的笔记本时,出现以下错误:ModuleNotFoundError:没有名为“spacy.pipeline.pipes”的模块; 'spa
当处理数百万文档并将它们保存为空间文档以供以后使用(更多处理、可视化、提取特征)时,一种明显的扩展解决方案是并行/分布式处理。这意味着每个并行进程都将拥有自己的 Vocab,这些 Vocab 可能会随
我正在使用 Spacy 大型模型,但它错误地使用与我的领域无关的类别标记实体,例如“艺术作品”可能导致它无法识别本应属于组织的内容。 是否可以限制 NER 仅返回人员、位置和组织? 最佳答案 简答:
我正在像这样使用 SpaCy 创建一个短语匹配器: import spacy from spacy.matcher import PhraseMatcher nlp = spacy.load("en"
我正在尝试使用 spaCy Matcher 工作获得以下简单示例: import en_core_web_sm from spacy.matcher import Matcher nlp = en_c
它没有出现在 pip list zeke$ pip list | grep spacy spacy (1.7.3) 如何获取模型名称? 我试过了,还是不行 echo "spaCy model:" py
我在 "Training an additional entity type" 中有新 NER 类型的训练数据spaCy 文档的部分。 TRAIN_DATA = [ ("Horses are
给定一个 token ,它是具有多个 token 的命名实体的一部分,是否有直接方法来获取该实体的跨度? 例如,考虑这个有两个词命名实体的句子: >>> doc = nlp("This year wa
如何限制 Spacy 使用的 CPU 数量? 我想从大量句子中提取词性和命名实体。由于 RAM 的限制,我首先使用 Python NLTK 将我的文档解析为句子。然后我遍历我的句子并使用 nlp.pi
显然 for doc in nlp.pipe(sequence) 比运行 for el in order: doc = nlp(el) .. 我遇到的问题是我的序列实际上是一个元组序列,其中包含用于将
显然 for doc in nlp.pipe(sequence) 比运行 for el in order: doc = nlp(el) .. 我遇到的问题是我的序列实际上是一个元组序列,其中包含用于将
我已经下载了 spaCy,但每次尝试 nlp = spacy.load("en_core_web_lg") 命令时,我都会收到此错误: OSError:[E050] 找不到模型“en_core_web
到目前为止,我一直在使用 spacy 2.3.1,并为我的自定义语言类(class)训练并保存了几个管道。但是现在使用 spacy 3.0 和 spacy.load('model-path') 我遇到
我安装了 spacy 使用 python3 install spacy 并使用下载了两个英文模型 python3 -m spacy download en 和 python3 -m spacy dow
我是一名优秀的程序员,十分优秀!