- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
有什么区别:DecisionTreeRegressor(splitter='random') 和 DecisionTreeRegressor(splitter='best')
如果两者似乎都抛出随机预测,我不明白为什么这两个实现都使用参数 random_state
这是一个例子:
import pandas as pd
from sklearn.tree import DecisionTreeRegressor
url = 'https://raw.githubusercontent.com/justmarkham/DAT8/master/data/vehicles_train.csv'
train = pd.read_csv(url)
train['vtype'] = train.vtype.map({'car':0, 'truck':1})
feature_cols = ['year', 'miles', 'doors', 'vtype']
X = train[feature_cols]
y = train.price
treereg = DecisionTreeRegressor(splitter='best')
for i in range(1, 10):
treereg.fit(X, y)
print treereg.predict([1994, 10000, 2, 1])
谢谢!
最佳答案
我无法明确回答这个问题,但我怀疑正在发生这种情况:
即使是 splitter="best"
,决策树内部使用的算法以随机顺序探索特征(如您所见 in the source )。如果max_features
没有定义,它应该探索所有特征,从而找到相同的最佳分割,无论随机状态如何,只要存在唯一最佳分割。
我怀疑,对于您提供的数据,在某些时候,根据指定的标准,有两种可能的分割效果同样好,因此算法会选择它首先看到的一个。
关于python - DecisionTreeRegressor 中的 random_state 是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33454930/
我正在使用 DecisionTreeRegressor 调整模型。 tuned_parameters = [{'splitter': ['best'], 'max_leaf_nodes': [2,
我的理解是: 在回归树中:每个叶子的目标值计算为在训练期间到达该叶子的实例的目标值的平均值。 在模型树中:每个叶子的值都是使用特征子集的线性函数,通过对训练期间到达该叶子的实例执行线性回归来确定。 s
我的理解是: 在回归树中:每个叶子的目标值计算为在训练期间到达该叶子的实例的目标值的平均值。 在模型树中:每个叶子的值都是使用特征子集的线性函数,通过对训练期间到达该叶子的实例执行线性回归来确定。 s
我正在尝试使用以下代码计算 DecisionTreeRegressor 的分数: from sklearn import preprocessing from sklearn.model_select
我正在尝试评估特征的相关性,并且我正在使用DecisionTreeRegressor() 相关部分代码如下: # TODO: Make a copy of the DataFrame, using t
我一直在尝试分析我在 sklearn 中训练的 DecisionTreeRegressor。我发现http://scikit-learn.org/stable/auto_examples/tree/p
我想使用 DecisionTreeRegressor 进行多输出回归,但我想为每个输出使用不同的“重要性”权重(例如,准确预测 y1 的重要性是预测 y2 的两倍)。 有没有办法将这些权重直接包含在
scikit-learn 的 DecisionTreeClassifier 支持通过 predict_proba() 函数预测每个类的概率。 DecisionTreeRegressor 中不存在这一点
有什么区别:DecisionTreeRegressor(splitter='random') 和 DecisionTreeRegressor(splitter='best') 如果两者似乎都抛出随机预
我试图弄清楚决策树回归预测是如何生成的。我所介绍的文档中没有对此进行详细解释。 来自sklearn DecisionTreeRegressor documentation关于预测函数: For a c
我遇到了一个需要我们使用多维 Y 的 ML 问题。现在我们正在这个输出的每个维度上训练独立的模型,它没有利用来自事实输出相关的附加信息. 我一直在读this了解更多关于已真正扩展以处理多维输出的少数
(1) 运行 Windows 8(2) 下载并安装,Anaconda for Windows, PYTHON 2.7 (3) 来自 Anaconda 提示符: conda install scikit
默认情况下,scikit-learn DecisionTreeRegressor 返回给定叶节点中训练集中所有目标值的平均值。 但是,我有兴趣从我的训练集中取回落入预测叶节点的目标值列表。这将使我能够
我正在学习机器学习并完成波士顿房价预测任务。我有以下代码: from sklearn.metrics import fbeta_score, make_scorer from sklearn.mode
我想这是可能的,因为在 fit 函数的定义中 it says : X : array-like, shape = [n_samples, n_features] 现在我有, 我当然可以生成决策树的字符
目前,我可以检索我在训练样本上生长的每个节点的 ID,我的测试样本的每一行最有可能属于: tree.tree_.apply(np.array(X_test).astype(np.float32)) 其
正在阅读本文great paper并尝试实现这一点: ...我们对待每一个人树作为一个分类特征,以实例最终落入的叶子的索引。我们使用 1-此类特征的 of-K 编码。例如,考虑图 1 中的提升树模型有
我目前正在研究一个预测问题,当我遇到以下问题时,我试图用 scikit-learns DecisionTreeRegressor 解决这个问题: When fitting a tree specify
我是一名优秀的程序员,十分优秀!