- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我为问题编码:
What percentage of noun synsets have no hyponyms? You can get all noun synsets using wn.all_synsets('n').
这是我的代码:
import nltk
from nltk.corpus import wordnet as wn
all_noun = wn.all_synsets('n')
print(all_noun)
print(wn.all_synsets('n'))
all_num = len(set(all_noun))
noun_have_hypon = [word for word in wn.all_synsets('n') if len(word.hyponyms()) >= 1]
noun_have_num = len(noun_have_hypon)
print('There are %d nouns, and %d nouns without hyponyms, the percentage is %f' %
(all_num, noun_have_num, (all_num-noun_have_num)/all_num*100))
当我运行这段代码时,输出是
<generator object all_synsets at 0x10927b1b0>
<generator object all_synsets at 0x10e6f0bd0>
There are 82115 nouns, and 16693 nouns without hyponyms, the percentage is 79.671193
但如果改变
noun_have_hypon = [word for word in wn.all_synsets('n') if len(word.hyponyms()) >= 1]
到
noun_have_hypon = [word for word in all_noun if len(word.hyponyms()) >= 1]
输出变为
<generator object all_synsets at 0x10917b1b0>
<generator object all_synsets at 0x10e46aab0>
There are 82115 nouns, and 0 nouns without hyponyms, the percentage is 100.000000
为什么即使 all_noun = wn.all_synsets('n')
两个答案也不相等, 0x10927b1b0 和 0x10e6f0bd0 是什么意思?
最佳答案
它与 NLTK 关系不大,但更多的是 Generator Expressions vs. List Comprehension 之间的区别.
让我们来看一个小例子:
首先,让我们创建一个返回简单列表的函数:
>>> def some_func_that_returns_a_list():
... list_to_be_returned = []
... for i in range(10):
... list_to_be_returned.append(i)
... return list_to_be_returned
...
>>> some_func_that_returns_a_list()
[0, 1, 2, 3, 4, 5, 6, 7, 8, 9]
请注意,在 some_func_that_returns_a_list()
函数中,需要创建一个列表并在函数返回调用它的代码中的位置之前将值放入。
类似地,我们可以使用生成器来实现需要返回的相同列表,但它有点不同,因为它使用了 yield。关键词:
>>> def some_func_that_returns_a_generator():
... for i in range(10):
... yield i
...
>>>
请注意,在函数中没有要返回的列表的实例化。
当您尝试调用该函数时:
>>>some_func_that_returns_a_generator()
<generator object some_func_that_returns_a_generator at 0x7f312719a780>
您收到生成器的字符串表示形式,即只是描述函数的内容。此时,没有实例化的值和生成器的指针,它应该小于实例化列表的函数:
>>> import sys
>>> sys.getsizeof(some_func_that_returns_a_generator())
80
>>> sys.getsizeof(some_func_that_returns_a_list())
200
由于生成器不会实例化您需要的结果列表的值,它只会一次弹出一个正在yield
的项目,您需要“手动”循环生成器以获取列表,例如:
>>> list(some_func_that_returns_a_generator())
[0, 1, 2, 3, 4, 5, 6, 7, 8, 9]
>>> [i for i in some_func_that_returns_a_generator()]
[0, 1, 2, 3, 4, 5, 6, 7, 8, 9]
但在这种情况下,它正在“即时”创建列表,如果您不打算停止列表而是一次读取一个元素,则生成器将是有利的(内存方面) .
另见:
因此对于 NLTK wn.all_synsets()
WordNet API,您可以简单地执行以下操作:
>>> from nltk.corpus import wordnet as wn
>>> nouns_in_wordnet = list(wn.all_synsets('n'))
但请注意,它会将作为名词的整个同义词集列表保存在内存中。
如果你想过滤超过 1 个上位词的名词,你可以避免使用 filter()
函数实例化完整的名词列表:
>>> filter(lambda ss: len(ss.hypernyms()) > 0, wn.all_synsets('n'))
最后,要在不将 Synsets 存储在内存中的情况下“即时”计算它,您可以:
>>> len(filter(lambda ss: len(ss.hypernyms()) > 0, wn.all_synsets('n')))
74389
或更简洁:
>>> sum(1 for ss in wn.all_synsets('n') if len(ss.hypernyms()) > 0)
74389
但最有可能的是,您想要访问同义词集,因此您可能正在寻找:
>>> nouns_with_hyper = filter(lambda ss: len(ss.hypernyms()) > 0, wn.all_synsets('n'))
>>> len(nouns_with_hyper)
74389
关于python - 为什么 wordnet 中的 NLTK wn.all_synsets() 函数不返回同义词集列表?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37810469/
NLTK 感知器标记器的标记集是什么?预训练模型使用的语料库是什么? 我试图从NLTK网站上找到官方信息。但他们没有那个。 最佳答案 来自 https://github.com/nltk/nltk/p
我无法理解这两者之间的区别。不过,我了解到word_tokenize将Penn-Treebank用于标记化目的。但TweetTokenizer上的任何内容都不可用。对于哪种类型的数据,我应该使用Twe
我正在学习 NLTK 和我的 mac 工作正常,除非我在 FreqDist() 上遇到问题。 (我看到另一个关于 FreqDist() 的问题,但他收到了不同的错误消息。TypeError: unha
我尝试了正则表达式词干分析器,但我得到了数百个不相关的标记。我只是对“播放”词干感兴趣。这是我正在使用的代码: import nltk from nltk.book import * f = open
我正在尝试使用 NLTK 命名实体标记器来识别各种命名实体。在使用 Python 进行自然语言处理一书中,他们提供了常用命名实体的列表(表 7.4,如果有人好奇的话),其中包括:日期 6 月,2008
我有很多文本数据,我想进行分类。我逐 block 递增地获取这些数据(例如 500 个样本)。我想用这些 block 在 NLTK 中对 NaiveBayesClassifier 进行训练,但要进行零
我在尝试运行实体提取功能时遇到问题。我相信这是版本差异。以下工作示例在 2.0.4 中运行,但不在 3.0 中运行。我确实将一个函数调用:batch_ne_chunk 更改为:nltk.ne_chun
我正在使用 docker 运行一个使用 nltk、languagetool 等的 NLP 系统... 当我使用 docker-compose build --build-arg env=dev我收到警
我正在检查 NLTK 的命名实体识别功能。是否可以找出提取出的哪个关键字与原文最相关?另外,是否可以知道提取的关键字的类型(人/组织)? 最佳答案 如果你有一个训练有素的标注器,你可以先标注你的文本,
我用过这个代码: # Step 1 : TOKENIZE from nltk.tokenize import * words = word_tokenize(text) # Step 2 : POS
当我运行 nltk.gaac.demo() 时 如果我错过了什么,你能帮我吗?我收到以下错误。 我使用的是nltk 3.0.1 Python 3.4.1 (v3.4.1:c0e311e010fc, M
我刚刚读了一篇关于如何使用 MALLET 进行主题建模的精彩文章,但我在网上找不到任何将 MALLET 与 NLTK 进行比较的内容,而我已经有过一些经验。 它们之间的主要区别是什么? MALLET
我试过这个,但它不起作用 from nltk.corpus import stopwords stopwords_list = stopwords.words('arabic') print(stop
我正在构建一个同时使用 NLTK 和 Spacy 的应用程序,并通过 Poetry 管理依赖项。我可以通过将此行添加到我的 pyproject.toml 来下载 Spacy 数据。下 [tool.po
我正在尝试使用 RegexpTokenizer 对文本进行分词。 代码: from nltk.tokenize import RegexpTokenizer #from nltk.tokenize i
我很好奇是否有人熟悉使用 NLTK's BLEU score calculation 之间的区别和 SacreBLEU library . 特别是,我使用了两个库的句子 BLEU 分数,对整个数据集进
我正在使用 nltk.word_tokenize用于标记一些包含编程语言、框架等的句子,这些句子被错误标记。 例如: >>> tokenize.word_tokenize("I work with C
我无法理解两者之间的区别。不过,我开始知道 word_tokenize 使用 Penn-Treebank 进行标记化。但是 TweetTokenizer 上没有任何内容可用。对于哪种数据,我应该使用
我需要对多种语言的文本进行名称实体提取:西类牙语、葡萄牙语、希腊语、捷克语、中文。 是否有这两个功能的所有支持语言的列表?是否有使用其他语料库的方法,以便可以包含这些语言? 最佳答案 默认情况下,这两
我是 python 的新手并使用 nltk,所以实际上我有一个非常基本的问题,但在任何地方都找不到答案。 我想知道什么时候在 nltk 模块的函数之前使用 nltk.。我正在处理一些任务,在某些情况下
我是一名优秀的程序员,十分优秀!