gpt4 book ai didi

encoding - 决策树中的香农熵度量

转载 作者:行者123 更新时间:2023-11-30 08:30:15 24 4
gpt4 key购买 nike

为什么在决策树分支中使用香农熵度量?

Entropy(S) = - p(+)log( p(+) ) - p(-)log( p(-) )

我知道这是衡量否的标准。编码信息所需的位数;分布越均匀,熵就越大。但我不明白为什么它如此频繁地应用于创建决策树(选择分支点)。

最佳答案

因为您想问的问题可以为您提供最多的信息。目标是最大限度地减少树中决策/问题/分支的数量,因此您从能够为您提供最多信息的问题开始,然后使用以下问题来填写详细信息。

关于encoding - 决策树中的香农熵度量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15019430/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com