- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在阅读这本书 ( NLTK ) 并且令人困惑。 熵 是 defined as :
Entropy is the sum of the probability of each label times the log probability of that same label
最佳答案
我假设在建筑 decision trees 的上下文中提到了熵.
为了说明,想象一下 learning 的任务至 classify名字分成男性/女性组。给出一个名称列表,每个名称都标有 m
或 f
,我们要学一个model符合数据,可用于预测新的未知名字的性别。
name gender
----------------- Now we want to predict
Ashley f the gender of "Amro" (my name)
Brian m
Caroline f
David m
# name ends-vowel num-vowels length gender
# ------------------------------------------------
Ashley 1 3 6 f
Brian 0 2 5 m
Caroline 1 4 8 f
David 0 2 5 m
length<7
| num-vowels<3: male
| num-vowels>=3
| | ends-vowel=1: female
| | ends-vowel=0: male
length>=7
| length=5: male
m
或
f
)
m
的叶节点,因此预测是男性(我碰巧是,所以树预测了结果
correctly )。
a
/
b
作为:
Entropy = - p(a)*log(p(a)) - p(b)*log(p(b))
p=1/2
时达到最大值, 意思是
p(X=a)=0.5
或类似
p(X=b)=0.5
有 50%/50% 的机会成为
a
或
b
(不确定性最大)。当概率为
p=1
时,熵函数的最小值为零或
p=0
完全确定(分别为
p(X=a)=1
或
p(X=a)=0
,后者意味着
p(X=b)=1
)。
log
通常取为
logarithm to the base 2 )
ends-vowel
[9m,5f] <--- the [..,..] notation represents the class
/ \ distribution of instances that reached a node
=1 =0
------- -------
[3m,4f] [6m,1f]
P(m)=9/14
和
P(f)=5/14
.根据熵的定义:
Entropy_before = - (5/14)*log2(5/14) - (9/14)*log2(9/14) = 0.9403
ends-vowel=1
的左分支中, 我们有:
Entropy_left = - (3/7)*log2(3/7) - (4/7)*log2(4/7) = 0.9852
ends-vowel=0
的右分支, 我们有:
Entropy_right = - (6/7)*log2(6/7) - (1/7)*log2(1/7) = 0.5917
Entropy_after = 7/14*Entropy_left + 7/14*Entropy_right = 0.7885
Information_Gain = Entropy_before - Entropy_after = 0.1518
end-vowels
进行拆分特征,我们能够将子树预测结果的不确定性降低 0.1518(在
bits 中测量为
units of information)。
关于math - 什么是 "entropy and information gain"?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/1859554/
In [15]: a = np.array([0.5, 0.5, 0, 0, 0]) In [16]: b = np.array([1, 0, 0, 0, 0]) In [17]: entropy(a
我有一个关于熵解释的问题。对于我数据集中的每个人,我都有一个 17 个字符(年)长的字符串/序列。我特别感兴趣的是在这个观察期内发生了多少变化。 我正在考虑使用 R 的 TraMineR 包为此计算序
我遇到了一个问题,即通过 SSL 使用 java 时速度很慢。解决办法是添加 -Djava.security.egd=file:/dev/./urandom在命令行中运行 java。由于我有多个 JV
我看到在很多地方(包括堆栈)都推荐了这种技术,我无法忘记这会减少熵!毕竟,您正在再次散列一些已经散列并且有碰撞机会的东西。碰撞机会超过碰撞机会会不会导致更多的碰撞机会?经过研究,似乎我错了,但为什么呢
我有一个嵌入式系统。我希望它在开机或以其他方式重置时做的是生成一个唯一的 ID,以便在不同的重新启动时以很高的概率生成一个不同的唯一 ID。 它无法访问实时时钟,但可以访问 ADC 和 UART。我想
我使用这个代码 训练模型的函数 def train(): model.train() total_loss, total_accuracy = 0, 0 # empty list
我正在阅读这本书 ( NLTK ) 并且令人困惑。 熵 是 defined as : Entropy is the sum of the probability of each label times
我遇到了一个问题,即通过 SSL 使用 java 时速度很慢。解决方法是添加 -Djava.security.egd=file:/dev/./urandom在命令行中使用 java。由于我有多个 JV
我在 Ted Talk 链接中看到了 Alex Wissner-gross 和他的智能行为理论 Here .我试图阅读链接的学术论文 Here ,这与他的演讲有关,但我对数学和物理学的理解不够,无法真
我对 BQ 的人有一个建议:我认为如果有一个内置函数可以返回列的熵,那将非常有用。一列离散类别或值相对容易。想法?这是否已经存在,但我没有找到它? 最佳答案 简单的解决方案如下 - 它计算列中不同值的
反熵协议(protocol)是八卦协议(protocol)的一种形式。 http://en.wikipedia.org/wiki/Gossip_protocol 。我想知道是否有人可以解释一下这里词熵
如果我使用 Matlab entropy() 函数估计标准正态随机变量向量的熵,我得到的答案在 4 左右,而 actual entropy应该是 0.5 * log(2*pi*e*sigma^2) 大
我用这个生成随机字符串: $characters = '0123456789QWERTYUIOPASDFGHJKLZXCVBNMqwertyuiopasdfghjklzxcvbnm'; $cl =
我正在尝试使用 scipy.stats.entropy 来估计两个分布之间的 Kullback–Leibler (KL) 散度。更具体地说,我想使用 KL 作为衡量标准来确定两个分布的一致性。 但是,
我很难理解 JPEG 文件格式的 ITU-T T.81 规范。希望这里的其他人已经尝试解析 JPEG 文件和/或了解此文件格式的详细信息。 规范表明 ECS0 段在 SOS 段之后开始,但我无法在规范
我实现了一个简单的神经网络。它适用于“sigmoid + 交叉熵”、“sigmoid + 二次成本”和“tanh + 二次成本”,但不适用于“tanh + 交叉熵”(不比随机猜测好)。谁能帮我弄清楚为
我在 Linux Ubuntu 上运行的 apache 服务器有问题。出于某种原因,我在日志文件中有以下警告:AH01990:PRNG 仍然包含不足的熵!。有时我可以访问该网站,但大多数时候我会收到以
我正在使用 Keras 并尝试从上下文中预测单词,例如来自一句话“我不得不说食物很美味!”我希望得到这样的东西: [say the ? was tasty] -> food, meals, spagh
我的图像有一个非白色区域(例如段落但不处理 OCR)。这些区域之间的空间有些规则,观看图像的人将能够看到这些区域之间有空白。 我打算做的是找到所有区域的顶角和底角,从底角开始到下一个区域的顶角,取每条
我希望通过使用 rpy2 调用 R 的 RTransferEntropy 包来计算 JupyterLab 笔记本中的传输熵,但这样做时遇到问题。 我正在使用 Anaconda 和 Python 3.7
我是一名优秀的程序员,十分优秀!