gpt4 book ai didi

python - 在逻辑回归中使用排名数据

转载 作者:太空狗 更新时间:2023-10-30 00:56:03 25 4
gpt4 key购买 nike

由于我正在努力学习这些概念,因此我将为此投入最大的赏金!我正在尝试在逻辑回归中使用一些排名数据。我想使用机器学习来制作一个关于网页是否“好”的简单分类器。这只是一个学习练习,所以我不期望有什么好结果;只是希望学习“过程”和编码技术。

我已将我的数据放入 .csv 中,如下所示:

URL WebsiteText AlexaRank GooglePageRank

在我的测试 CSV 中,我们有:

URL WebsiteText AlexaRank GooglePageRank Label

标签是二进制分类,用 1 表示“好”,用 0 表示“坏”。

我目前只使用网站文本运行我的 LR;我在上面运行 TF-IDF。

我有两个问题需要帮助。我将对这个问题给予最大的赏金,并将其奖励给最佳答案,因为我希望得到一些很好的帮助,这样我和其他人可能会学到东西。

  • 如何规范我的 AlexaRank 排名数据?我有一套10,000 个网页,我拥有所有网页的 Alexa 排名;但是它们没有排名 1-10,000。他们被排在整个互联网,因此虽然 http://www.google.com 可能排名 #1http://www.notasite.com 可能排名 #83904803289480。我如何能在 Scikit 学习中对此进行规范化,以获得最佳效果从我的数据中得出结果?
  • 我正在以这种方式运行逻辑回归;我几乎可以肯定我做错了。我正在尝试在网站文本上执行 TF-IDF,然后添加其他两个相关列并拟合 Logistic 回归。如果有人能够快速验证我是否正确地使用了我想在我的 LR 中使用的三列,我将不胜感激。对于我如何改进自己的任何和所有反馈,也将在这里感谢。

    loadData = lambda f: np.genfromtxt(open(f,'r'), delimiter=' ')

    print "loading data.."
    traindata = list(np.array(p.read_table('train.tsv'))[:,2])#Reading WebsiteText column for TF-IDF.
    testdata = list(np.array(p.read_table('test.tsv'))[:,2])
    y = np.array(p.read_table('train.tsv'))[:,-1] #reading label

    tfv = TfidfVectorizer(min_df=3, max_features=None, strip_accents='unicode', analyzer='word',

    token_pattern=r'\w{1,}', ngram_range=(1, 2), use_idf=1, smooth_idf=1,sublinear_tf=1)

    rd = lm.LogisticRegression(penalty='l2', dual=True, tol=0.0001, C=1, fit_intercept=True, intercept_scaling=1.0, class_weight=None, random_state=None)

    X_all = traindata + testdata
    lentrain = len(traindata)

    print "fitting pipeline"
    tfv.fit(X_all)
    print "transforming data"
    X_all = tfv.transform(X_all)
    X = X_all[:lentrain]
    X_test = X_all[lentrain:]

    print "20 Fold CV Score: ", np.mean(cross_validation.cross_val_score(rd, X, y, cv=20, scoring='roc_auc'))

    #Add Two Integer Columns
    AlexaAndGoogleTrainData = list(np.array(p.read_table('train.tsv'))[2:,3])#Not sure if I am doing this correctly. Expecting it to contain AlexaRank and GooglePageRank columns.
    AlexaAndGoogleTestData = list(np.array(p.read_table('test.tsv'))[2:,3])
    AllAlexaAndGoogleInfo = AlexaAndGoogleTestData + AlexaAndGoogleTrainData

    #Add two columns to X.
    X = np.append(X, AllAlexaAndGoogleInfo, 1) #Think I have done this incorrectly.

    print "training on full data"
    rd.fit(X,y)
    pred = rd.predict_proba(X_test)[:,1]
    testfile = p.read_csv('test.tsv', sep="\t", na_values=['?'], index_col=1)
    pred_df = p.DataFrame(pred, index=testfile.index, columns=['label'])
    pred_df.to_csv('benchmark.csv')
    print "submission file created.."`

非常感谢您的所有反馈 - 如果您需要任何进一步的信息,请发帖!

最佳答案

我想 sklearn.preprocessing.StandardScaler 将是您想尝试的第一件事。 StandardScaler 将您的所有特征转换为 Mean-0-Std-1 特征。

  • 这绝对可以解决您的第一个问题。 AlexaRank 将保证分布在 0 附近并有界。 (是的,即使像 83904803289480 这样的大量 AlexaRank 值也会转换为小的 float )。当然,结果不会是 110000 之间的整数,但它们将保持与原始排名相同的顺序。在这种情况下,保持排名有界和规范化将有助于解决您的第二个问题,如下所示。
  • 为了理解为什么归一化对 LR 有帮助,让我们重新审视 LR 的 logit 公式。 enter image description here
    在您的例子中,X1、X2、X3 是三个 TF-IDF 功能,X4、X5 是 Alexa/Google 排名相关功能。现在,方程的线性形式表明系数表示 y 的 logit 随变量一个单位变化的变化。想想当你的 X4 保持固定在一个巨大的排名值时会发生什么,比如 83904803289480。在这种情况下,Alexa Rank 变量支配您的 LR 拟合,TF-IDF 值的微小变化对 LR 拟合几乎没有影响。现在人们可能会认为系数应该能够调整为小/大值以解释这些特征之间的差异。在这种情况下不是 --- 重要的不仅是变量的大小,还有它们的范围。 Alexa Rank 绝对有很大的范围,在这种情况下绝对应该主导你的 LR fit。因此,我猜想使用 StandardScaler 对所有变量进行归一化以调整它们的范围会提高拟合度。

下面是缩放 X 矩阵的方法。

sc = proprocessing.StandardScaler().fit(X)
X = sc.transform(X)

不要忘记使用相同的缩放器来转换 X_test

X_test = sc.transform(X_test)

现在可以使用拟合程序等

rd.fit(X, y)
re.predict_proba(X_test)

查看有关 sklearn 预处理的更多信息:http://scikit-learn.org/stable/modules/preprocessing.html

编辑: 解析和列合并部分可以使用 pandas 轻松完成,即无需将矩阵转换为列表然后追加它们。此外,pandas dataframes 可以直接通过它们的列名进行索引。

AlexaAndGoogleTrainData = p.read_table('train.tsv', header=0)[["AlexaRank", "GooglePageRank"]]
AlexaAndGoogleTestData = p.read_table('test.tsv', header=0)[["AlexaRank", "GooglePageRank"]]
AllAlexaAndGoogleInfo = AlexaAndGoogleTestData.append(AlexaAndGoogleTrainData)

请注意,我们将 header=0 参数传递给 read_table 以维护 tsv 文件中的原始 header 名称。还要注意我们如何使用整组列进行索引。最后,您可以使用 numpy.hstackstack 这个带有 X 的新矩阵。

X = np.hstack((X, AllAlexaAndGoogleInfo))

hstack 水平组合两个长度相同的多维类数组结构。

关于python - 在逻辑回归中使用排名数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22117692/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com