gpt4 book ai didi

python - 从 K-Fold CV 中寻找逻辑回归权重

转载 作者:太空宇宙 更新时间:2023-11-04 09:39:10 29 4
gpt4 key购买 nike

我有一个包含 36 个特征的数据集,我将所有这些特征用于 Fold 交叉验证中的逻辑回归算法。我的 K 值为 10。有什么方法可以在 CV 的第 10 次折叠结束时找到专用于我的所有 36 个特征的权重?这是我的代码:

    labels = df.columns[2:36]

X = df[labels]
y = df['target']

# use train/test split with different random_state values
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=4)

logreg = LogisticRegression()
classifier_pre = cross_val_score(logreg, X, y, cv=20, scoring='precision')
print("Precision:" ,classifier_pre.mean())

最佳答案

首先,python中的索引是从0开始的,所以写成labels = df.columns[2:36]假设您的目标列有索引 1,用人类语言表示,它是从左边开始的第二个(遍历值,第 36 列将作为第 0 列返回)。如果您的目标列是从数据框左侧开始的第一列,您应该写 labels = df.columns[1:35]

一些函数,包括逻辑回归,已经在 sklearn.linear_model 中实现了 CV 模式。我劝你看看here您可以在其中了解如何调整和使用它。

你可以尝试类似的东西:

from sklearn.linear_model import LogisticRegressionCV

labels = df.columns[1:35] #if indeed your very first column is your target !!

logistic = LogisticRegressionCV(Cs=4, fit_intercept=True, cv=10, verbose =1, random_state=42)
logistic.fit(X, y)
print(logistic.coef_) #weights of each feature
print(logistic.intercept_) #value of intercept

最后一个建议:使用 train_test_split 生成的测试集是个好主意,但不要在其上训练您的模型。仅将其用于最后的评估。这意味着在这里你应该用 X_train 来适应你的算法。和 y_train并在 X_test 上对其进行评估和 y_test ,而不是复制我写的一小段代码,其中拟合部分是在 X 上完成的和 y ,如果在 X 上评估您的模型,这将导致您对准确性的衡量过于乐观。和 y ...

关于python - 从 K-Fold CV 中寻找逻辑回归权重,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52316237/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com