- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在学习机器学习并完成波士顿房价预测任务。我有以下代码:
from sklearn.metrics import fbeta_score, make_scorer
from sklearn.model_selection import GridSearchCV
def fit_model(X, y):
""" Tunes a decision tree regressor model using GridSearchCV on the input data X
and target labels y and returns this optimal model. """
# Create a decision tree regressor object
regressor = DecisionTreeRegressor()
# Set up the parameters we wish to tune
parameters = {'max_depth':(1,2,3,4,5,6,7,8,9,10)}
# Make an appropriate scoring function
scoring_function = make_scorer(fbeta_score, beta=2)
# Make the GridSearchCV object
reg = GridSearchCV(regressor, param_grid=parameters, scoring=scoring_function)
print reg
# Fit the learner to the data to obtain the optimal model with tuned parameters
reg.fit(X, y)
# Return the optimal model
return reg.best_estimator_
reg = fit_model(housing_features, housing_prices)
这给了我 ValueError: continuous is not supported for the reg.fit(X, y) 行,我不明白为什么。这是什么原因,我在这里缺少什么?
最佳答案
那是因为这条线:
scoring_function = make_scorer(fbeta_score, beta=2)
这会将评分指标设置为 fbeta ,用于分类任务!
您在这里进行回归,如下所示:
regressor = DecisionTreeRegressor()
来自 the docs
关于python - GridSearchCV 给出 ValueError : continuous is not supported for DecisionTreeRegressor,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47659998/
我正在使用 DecisionTreeRegressor 调整模型。 tuned_parameters = [{'splitter': ['best'], 'max_leaf_nodes': [2,
我的理解是: 在回归树中:每个叶子的目标值计算为在训练期间到达该叶子的实例的目标值的平均值。 在模型树中:每个叶子的值都是使用特征子集的线性函数,通过对训练期间到达该叶子的实例执行线性回归来确定。 s
我的理解是: 在回归树中:每个叶子的目标值计算为在训练期间到达该叶子的实例的目标值的平均值。 在模型树中:每个叶子的值都是使用特征子集的线性函数,通过对训练期间到达该叶子的实例执行线性回归来确定。 s
我正在尝试使用以下代码计算 DecisionTreeRegressor 的分数: from sklearn import preprocessing from sklearn.model_select
我正在尝试评估特征的相关性,并且我正在使用DecisionTreeRegressor() 相关部分代码如下: # TODO: Make a copy of the DataFrame, using t
我一直在尝试分析我在 sklearn 中训练的 DecisionTreeRegressor。我发现http://scikit-learn.org/stable/auto_examples/tree/p
我想使用 DecisionTreeRegressor 进行多输出回归,但我想为每个输出使用不同的“重要性”权重(例如,准确预测 y1 的重要性是预测 y2 的两倍)。 有没有办法将这些权重直接包含在
scikit-learn 的 DecisionTreeClassifier 支持通过 predict_proba() 函数预测每个类的概率。 DecisionTreeRegressor 中不存在这一点
有什么区别:DecisionTreeRegressor(splitter='random') 和 DecisionTreeRegressor(splitter='best') 如果两者似乎都抛出随机预
我试图弄清楚决策树回归预测是如何生成的。我所介绍的文档中没有对此进行详细解释。 来自sklearn DecisionTreeRegressor documentation关于预测函数: For a c
我遇到了一个需要我们使用多维 Y 的 ML 问题。现在我们正在这个输出的每个维度上训练独立的模型,它没有利用来自事实输出相关的附加信息. 我一直在读this了解更多关于已真正扩展以处理多维输出的少数
(1) 运行 Windows 8(2) 下载并安装,Anaconda for Windows, PYTHON 2.7 (3) 来自 Anaconda 提示符: conda install scikit
默认情况下,scikit-learn DecisionTreeRegressor 返回给定叶节点中训练集中所有目标值的平均值。 但是,我有兴趣从我的训练集中取回落入预测叶节点的目标值列表。这将使我能够
我正在学习机器学习并完成波士顿房价预测任务。我有以下代码: from sklearn.metrics import fbeta_score, make_scorer from sklearn.mode
我想这是可能的,因为在 fit 函数的定义中 it says : X : array-like, shape = [n_samples, n_features] 现在我有, 我当然可以生成决策树的字符
目前,我可以检索我在训练样本上生长的每个节点的 ID,我的测试样本的每一行最有可能属于: tree.tree_.apply(np.array(X_test).astype(np.float32)) 其
正在阅读本文great paper并尝试实现这一点: ...我们对待每一个人树作为一个分类特征,以实例最终落入的叶子的索引。我们使用 1-此类特征的 of-K 编码。例如,考虑图 1 中的提升树模型有
我目前正在研究一个预测问题,当我遇到以下问题时,我试图用 scikit-learns DecisionTreeRegressor 解决这个问题: When fitting a tree specify
我是一名优秀的程序员,十分优秀!