gpt4 book ai didi

python - 多输出分类器/学习 5 个目标变量

转载 作者:太空宇宙 更新时间:2023-11-03 13:09:34 25 4
gpt4 key购买 nike

我是机器学习的新手。几个星期以来,我一直在为一个问题而苦苦挣扎,我希望有人能在这里提供帮助:

我有一个包含一个连续变量的数据集,其余的都是分类变量。我设法对分类变量进行编码,并想构建一个多输出分类器。

这是我的数据集: Snapshot of my data set我有这些特点:A,B我想预测:C,D,E,F,G

数据集是这样的:A,B,C,D,E,F,G

我花了好几天时间在 scikitlearn 和此处查看有关多输出分类器的文档,但我觉得没有一个文档很清楚。

谁能给我指出正确的方向,找到一些关于如何创建分类器并用一些样本数据进行预测的示例代码?

提前谢谢你P.S:我没有使用 TensorFlow,非常感谢您对 sklearn 的帮助。

最佳答案

这叫做 multi-task learning ,这基本上意味着一个学习多个功能但共享(部分或全部)权重的模型。这是相当普遍的,例如一种用于图像识别和检测的模型。您需要做的是定义几个损失函数(它们被称为heads)。

这是一个非常简单的 tensorflow 示例,它从 X(来自 this post series)学习 Y1Y2:

# Define the Placeholders
X = tf.placeholder("float", [10, 10], name="X")
Y1 = tf.placeholder("float", [10, 1], name="Y1")
Y2 = tf.placeholder("float", [10, 1], name="Y2")

# Define the weights for the layers
shared_layer_weights = tf.Variable([10,20], name="share_W")
Y1_layer_weights = tf.Variable([20,1], name="share_Y1")
Y2_layer_weights = tf.Variable([20,1], name="share_Y2")

# Construct the Layers with RELU Activations
shared_layer = tf.nn.relu(tf.matmul(X,shared_layer_weights))
Y1_layer = tf.nn.relu(tf.matmul(shared_layer,Y1_layer_weights))
Y2_layer_weights = tf.nn.relu(tf.matmul(shared_layer,Y2_layer_weights))

# Calculate Loss
Y1_Loss = tf.nn.l2_loss(Y1,Y1_layer)
Y2_Loss = tf.nn.l2_loss(Y2,Y2_layer)

如果您希望使用纯 scikit 进行编码,请参阅 sklearn.multiclass包,它们支持多输出分类和多输出回归。这是多输出回归的示例:

>>> from sklearn.datasets import make_regression
>>> from sklearn.multioutput import MultiOutputRegressor
>>> from sklearn.ensemble import GradientBoostingRegressor
>>> X, y = make_regression(n_samples=10, n_targets=3, random_state=1)
>>> MultiOutputRegressor(GradientBoostingRegressor(random_state=0)).fit(X, y).predict(X)
array([[-154.75474165, -147.03498585, -50.03812219],
[ 7.12165031, 5.12914884, -81.46081961],
[-187.8948621 , -100.44373091, 13.88978285],
[-141.62745778, 95.02891072, -191.48204257],
[ 97.03260883, 165.34867495, 139.52003279],
[ 123.92529176, 21.25719016, -7.84253 ],
[-122.25193977, -85.16443186, -107.12274212],
[ -30.170388 , -94.80956739, 12.16979946],
[ 140.72667194, 176.50941682, -17.50447799],
[ 149.37967282, -81.15699552, -5.72850319]])

[更新]

这是执行多目标分类的完整代码。尝试运行它:

import numpy as np
from sklearn.ensemble import RandomForestClassifier
from sklearn.multioutput import MultiOutputClassifier

# The data from your screenshot
# A B C D E F G
train_data = np.array([
[5, 133.5, 27, 284, 638, 31, 220],
[5, 111.9, 27, 285, 702, 36, 230],
[5, 99.3, 25, 310, 713, 39, 227],
[5, 102.5, 25, 311, 670, 34, 218],
[5, 114.8, 25, 312, 685, 34, 222],
])
# These I just made up
test_data_x = np.array([
[5, 100.0],
[5, 105.2],
[5, 102.7],
[5, 103.5],
[5, 120.3],
[5, 132.5],
[5, 152.5],
])

x = train_data[:, :2]
y = train_data[:, 2:]
forest = RandomForestClassifier(n_estimators=100, random_state=1)
classifier = MultiOutputClassifier(forest, n_jobs=-1)
classifier.fit(x, y)
print classifier.predict(test_data_x)

输出(嗯,对我来说看起来很合理):

[[  25.  310.  713.   39.  227.]
[ 25. 311. 670. 34. 218.]
[ 25. 311. 670. 34. 218.]
[ 25. 311. 670. 34. 218.]
[ 25. 312. 685. 34. 222.]
[ 27. 284. 638. 31. 220.]
[ 27. 284. 638. 31. 220.]]

如果由于某种原因这不起作用或不能应用于您的情况,请更新问题。

关于python - 多输出分类器/学习 5 个目标变量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46770088/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com