- mongodb - 在 MongoDB mapreduce 中,如何展平值对象?
- javascript - 对象传播与 Object.assign
- html - 输入类型 ="submit"Vs 按钮标签它们可以互换吗?
- sql - 使用 MongoDB 而不是 MS SQL Server 的优缺点
我刚开始使用词性标注器,我遇到了很多问题。
我开始使用以下内容进行 POS 标记:
import nltk
text=nltk.word_tokenize("We are going out.Just you and me.")
当我想打印 'text'
时,会发生以下情况:
print nltk.pos_tag(text)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "F:\Python26\lib\site-packages\nltk\tag\__init__.py", line 63, in pos_tag
tagger = nltk.data.load(_POS_TAGGER)
File "F:\Python26\lib\site-packages\nltk\data.py", line 594, in load
resource_val = pickle.load(_open(resource_url))
File "F:\Python26\lib\site-packages\nltk\data.py", line 673, in _open
return find(path).open()
File "F:\Python26\lib\site-packages\nltk\data.py", line 455, in find
raise LookupError(resource_not_found)`
LookupError:
Resource 'taggers/maxent_treebank_pos_tagger/english.pickle' not
found. Please use the NLTK Downloader to obtain the resource:
>>> nltk.download().
Searched in:
- 'C:\\Documents and Settings\\Administrator/nltk_data'
- 'C:\\nltk_data'
- 'D:\\nltk_data'
- 'E:\\nltk_data'
- 'F:\\Python26\\nltk_data'
- 'F:\\Python26\\lib\\nltk_data'
- 'C:\\Documents and Settings\\Administrator\\Application Data\\nltk_data'
我使用了 nltk.download()
但它不起作用。
最佳答案
NLTK
版本高于v3.2,请使用:
>>> import nltk
>>> nltk.__version__
'3.2.1'
>>> nltk.download('averaged_perceptron_tagger')
[nltk_data] Downloading package averaged_perceptron_tagger to
[nltk_data] /home/alvas/nltk_data...
[nltk_data] Package averaged_perceptron_tagger is already up-to-date!
True
NLTK
版本使用旧MaxEnt模型,即v3.1及以下,请使用:
>>> import nltk
>>> nltk.download('maxent_treebank_pos_tagger')
[nltk_data] Downloading package maxent_treebank_pos_tagger to
[nltk_data] /home/alvas/nltk_data...
[nltk_data] Package maxent_treebank_pos_tagger is already up-to-date!
True
有关更改默认pos_tag
的更多详细信息,请参阅https://github.com/nltk/nltk/pull/1143
关于python - NLTK POS tagger 要求我下载什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8590370/
from nltk.tag.perceptron import PerceptronTagger tagger = PerceptronTagger() def pos_tagging(X):
我的项目的目标是回答查询,例如:“我正在寻找在谷歌工作的 20 到 30 岁的美国女性”然后我必须处理查询并查看数据库以找到答案。 为此,我需要将 Stanford 3-class NERTagger
代码片段如下: In [390]: t Out[390]: ['my', 'phone', 'number', 'is', '1111', '1111', '1111'] In [391]: ner_
我正在使用 python 的内置库 nltk 来获取 stanford ner tagger api 设置,但我发现此 api 的单词标记与 stanford 的 ner tagger 网站上的在线演
我发现Stanford POS Tagger很好,但是不知何故我发现自己需要创建自己的POS标记器。 在过去的两个星期中,我在各处徘徊,讨论是否要从解析树开始,或者一旦有了pos标记器就无法解析树,就
我正在使用 nltk 通过首先删除给定的停用词从句子中生成 n-gram。但是,nltk.pos_tag() 在我的 CPU (Intel i7) 上非常慢,最多需要 0.6 秒。 输出: ['The
此脚本在 play.golang.org 中编译时没有错误:http://play.golang.org/p/Hlr-IAc_1f 但是当我在我的机器上运行时,发生的时间比我预期的要长得多,但终端什么
我是斯坦福 POS 标注器的新手。 我需要从我的 java 程序中调用 Tagger 并将输出定向到一个文本文件。 我已经从 Stanford-postagger 中提取了源文件并尝试调用 maxen
我正在尝试获取几个句子的词性,为此我使用斯坦福 NLP POS 标记器 english-left3words-distsim.tagger 但是当我尝试初始化这个模型时,我收到错误: java.io.
我想添加新的标记词(我们地区使用的本地词)并创建一个新模型。我从命令行创建了 .prop 文件,但如何创建 .tagger 文件? 当我尝试创建斯坦福网站上提到的此类文件时,它显示了类似的错误 "No
我正在使用 Stanford POS Tagger 执行 POS 标记。标注器仅返回输入句子的一种可能的标注。例如,当提供输入句子“The clown weeps.”时,词性标注器会生成(错误的)“T
我正在尝试在 Python 中使用 Stanford POS Tagger。 home = 'U:/ManWin/My Documents/Research Project' from nltk.ta
我正在为基线标注器编写代码。基于 Brown 语料库,它为单词分配了最常见的标签。因此,如果单词“works”被标记为动词 23 次,被标记为复数名词 30 次,那么根据用户输入的句子,它会被标记为复
我在 Ubuntu 14.04 上使用 Python3,并在 67 篇原始文本文章的语料库上运行 Stanford POSTagger,经过编辑的 python 脚本如下: from nltk.tag
我必须分析包含大量速记和本地行话的非正式英语文本。因此,我正在考虑为斯坦福标注器创建模型。 我如何创建自己的一组标记语料库供 stanford 标注器训练? 语料库的语法是什么?为了达到理想的性能,我
我正在使用 Stanford POS Tagger(通过 Python 中的 NLTK)标记西类牙语文本。 这是我的代码: import nltk from nltk.tag.stanford imp
我正在使用 Stanford POS Tagger(这是第一次),虽然它正确地标记了英文,但它似乎无法识别(简体)中文,即使在更改模型参数时也是如此。我是否忽略了什么? 我已经从这里下载并解压了最新的
我刚开始使用词性标注器,我遇到了很多问题。 我开始使用以下内容进行 POS 标记: import nltk text=nltk.word_tokenize("We are going out.Just
我有以下方法返回带有POS标签的句子: String Sentence = "STEERING COLUMN MOVES" MaxentTagger taggerObject = new Maxent
我对 NLP 世界完全陌生,我需要你的帮助来开始使用漂亮的斯坦福词性标注器来标记阿拉伯语句子。 我已经安装了完整版本,其中包含两个经过训练的阿拉伯语标记器。 请指导我使用 java 和 eclipse
我是一名优秀的程序员,十分优秀!