- mongodb - 在 MongoDB mapreduce 中,如何展平值对象?
- javascript - 对象传播与 Object.assign
- html - 输入类型 ="submit"Vs 按钮标签它们可以互换吗?
- sql - 使用 MongoDB 而不是 MS SQL Server 的优缺点
我正在使用 Vader SentimentAnalyzer 来获取极性分数。我之前使用了正/负/中性的概率分数,但我刚刚意识到“复合”分数,范围从 -1(最负)到 1(最正)将提供一个单一的极性度量。我想知道“复合”分数是如何计算的。是从 [pos, neu, neg] 向量计算的吗?
最佳答案
VADER 算法将情绪分数输出到 4 类情绪 https://github.com/nltk/nltk/blob/develop/nltk/sentiment/vader.py#L441 :
否定
:否定neu
:中性pos
:正面compound
:复合(即总分)让我们看一下代码,compound 的第一个实例位于 https://github.com/nltk/nltk/blob/develop/nltk/sentiment/vader.py#L421 ,它在哪里计算:
compound = normalize(sum_s)
normalize()
函数在 https://github.com/nltk/nltk/blob/develop/nltk/sentiment/vader.py#L107 中定义。 :
def normalize(score, alpha=15):
"""
Normalize the score to be between -1 and 1 using an alpha that
approximates the max expected value
"""
norm_score = score/math.sqrt((score*score) + alpha)
return norm_score
所以有一个超参数alpha
。
至于 sum_s
,它是传递给 score_valence()
函数的情绪参数的总和 https://github.com/nltk/nltk/blob/develop/nltk/sentiment/vader.py#L413
如果我们追溯这个 sentiment
参数,我们会看到它是在 https://github.com/nltk/nltk/blob/develop/nltk/sentiment/vader.py#L217 调用 polarity_scores()
函数时计算的:
def polarity_scores(self, text):
"""
Return a float for sentiment strength based on the input text.
Positive values are positive valence, negative value are negative
valence.
"""
sentitext = SentiText(text)
#text, words_and_emoticons, is_cap_diff = self.preprocess(text)
sentiments = []
words_and_emoticons = sentitext.words_and_emoticons
for item in words_and_emoticons:
valence = 0
i = words_and_emoticons.index(item)
if (i < len(words_and_emoticons) - 1 and item.lower() == "kind" and \
words_and_emoticons[i+1].lower() == "of") or \
item.lower() in BOOSTER_DICT:
sentiments.append(valence)
continue
sentiments = self.sentiment_valence(valence, sentitext, item, i, sentiments)
sentiments = self._but_check(words_and_emoticons, sentiments)
查看 polarity_scores
函数,它所做的是遍历整个 SentiText 词典并检查基于规则的 sentiment_valence()
函数以分配价分数对情绪https://github.com/nltk/nltk/blob/develop/nltk/sentiment/vader.py#L243 ,见 http://comp.social.gatech.edu/papers/icwsm14.vader.hutto.pdf 的第 2.1.1 节
所以回到复合分数,我们看到:
compound
分数是 sum_s
和sum_s
是根据一些启发式算法和情感词典(又名情感强度)计算的价和sum_s
除以其平方加上一个增加归一化函数分母的 alpha 参数。 是根据 [pos, neu, neg] 向量计算的吗?
不是真的=)
如果我们看一下 score_valence
函数 https://github.com/nltk/nltk/blob/develop/nltk/sentiment/vader.py#L411 ,我们看到复合分数是用 sum_s
计算的,然后使用 _sift_sentiment_scores()
计算单个 pos、neg 和 neu 分数来计算 pos、neg 和 neu 分数使用来自 sentiment_valence()
的原始分数,没有总和。
如果我们看一下这个 alpha
数学,似乎归一化的输出相当不稳定(如果不受约束),取决于 alpha
的值:
alpha=0
:
alpha=15
:
alpha=50000
:
alpha=0.001
:
当它是负面的时候会变得很时髦:
alpha=-10
:
alpha=-1,000,000
:
alpha=-1,000,000,000
:
关于python - Python NLTK 中的 Vader 'compound' 极性分数是如何计算的?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40325980/
直接从 Python 代码运行 pylint 时,我似乎无法获得任何返回值。从命令行运行它会生成一个漂亮的报告,在底部有一个总结分数。 我已经尝试将“Run”的返回值放入一个变量中,并获取它的“rep
我是 Python 新手,正在尝试学习单词检测。我有一个带有单词的数据框 sharina['transcript'] Out[25]: 0 thank you for calling my
http://jsfiddle.net/q8P7Y/ 我在最后显示最终分数时遇到问题,有很多方法可以做到这一点,但我不确定什么是最好的。 正如你所看到的,下一个按钮只是 div 的显示/隐藏,而不是页
我使用滑动 slider 并有计数器分数。它计数很好,但我需要计数 =(所有幻灯片 - 1)。例如,如果我有 20 张幻灯片,我想显示总数 19。有什么办法可以做到这一点吗?我使用他们网站上的常规 j
我使用滑动 slider 并有计数器分数。它计数很好,但我需要计数 =(所有幻灯片 - 1)。例如,如果我有 20 张幻灯片,我想显示总数 19。有什么办法可以做到这一点吗?我使用他们网站上的常规 j
我试图在按下按钮时添加分数,分数显示在 JTextField 中,但是当按下按钮时,分数会添加,它显示为 0。我有一个存储分数的整数字段 private int score=0; yesButton
我可以在选项(单选按钮)随机播放之前计算分数/分数,如下面的代码所示。在Collection.shuffle()之前,选项是固定的,因为 CorrectChoice将始终分配给c2单选按钮。那么我可以
我在这里的代码只能得到87%的代码,因为“带有非正参数的加法参数什么也没做。我该如何解决呢?我尝试了更多的方法,但是我什至无法解决此错误在同学的帮助下 说明是: 对于此分配,您将创建一个存储分数的类。
昨天,我尝试以一种方式执行此操作...今天我尝试另一种方式,但仍然卡住了。我必须找到一种使用整数除法和取模来做到这一点的方法。这是我的代码,后面是错误消息。 public int evaluateFr
我这里有一些特殊字符: http://209.141.56.244/test/char.php 但是当我在这里通过 ajax 抓取这个文件时,它们显示为 back ?标记: http://209.14
我得到了一张图表 G与 n顶点,标记自 1至 n (2 a_1 -> a_2 -> ... a_k -> n A然后将占据 1 的所有“子节点”节点, a_1 , ... a_x (其中 x = ce
我有一个看起来像这样的 mongodb 集合: db.scores.insert({"name": "Bob", value: 96.3, timeStamp:'2010-9-27 9:32:00'}
我试图更好地了解 lucene 如何对我的搜索进行评分,以便我可以对我的搜索配置或文档内容进行必要的调整。 以下是分数明细的一部分。 产品: 0.34472802 = queryWeight,
在我网站上用户生成的帖子下,我有一个类似亚马逊的评级系统: Was this review helpful to you: Yes | No 如果有投票,我会在该行上方显示结果,如下所示:
对于我的项目,我需要找出哪些搜索结果被视为“良好”匹配。目前,分数因查询而异,因此需要以某种方式对它们进行标准化。标准化分数将允许选择高于给定阈值的结果。 我为 Lucene 找到了几个解决方案: h
我有一个由 57 个变量组成的数据文件。由于测量水平不均匀,我想将其中的大约 12 个转换为 z 分数。我查找了互联网资源和帮助文件。一个互联网资源建议我需要 Rbasic 包(不存在)。我使用了 s
我对 SOLR 核心运行查询并使用过滤器限制结果例如 fq: {!frange l=0.7 }query($q)。我知道 SOLR 分数不有绝对意义,但是0.7(只是一个例子)是计算出来的基于用户输入
我想找到不同的方法来解决我遇到的现实生活问题:想象一下进行一场比赛或一场游戏,在此期间用户收集积分。您必须构建一个查询来显示具有最佳“n”分数的用户列表。 我举一个例子来澄清。假设这是用户表,其中包含
我有很多 wiki 页面,我想训练一个分类器,看看是否可以通过一些特征(包括段落的位置和段落的 lucene 分数)来确定重点搜索的位置。我尝试将每个段落视为一个文档,这使我能够获得每个段落的 luc
我是 R 编程新手,在使用一些基本代码时遇到问题。 我有一个包含以下列的数据框:条件(因子)、用户(因子)和灵敏度(int)。对于每个用户有 20 个敏感项。我需要为每个用户创建一个具有标准化敏感度分
我是一名优秀的程序员,十分优秀!