gpt4 book ai didi

python - 使用SHAP时如何解释多类分类问题的base_value?

转载 作者:行者123 更新时间:2023-12-04 13:11:14 24 4
gpt4 key购买 nike

我正在使用 shap 库来实现 ML 可解释性,以更好地理解 k-means 分割算法集群。简而言之,我做了一些博客,使用 k-means 对它们进行聚类,然后将聚类作为标签和 xgboost 来尝试预测它们。我有 5 个聚类,所以这是一个单标签多类分类问题。

import numpy as np
from sklearn.datasets import make_blobs
import pandas as pd
from sklearn.preprocessing import StandardScaler
from sklearn.cluster import KMeans
import xgboost as xgb
import shap

X, y = make_blobs(n_samples=500, centers=5, n_features=5, random_state=0)
data = pd.DataFrame(np.concatenate((X, y.reshape(500,1)), axis=1), columns=['var_1', 'var_2', 'var_3', 'var_4', 'var_5', 'cluster_id'])
data['cluster_id'] = data['cluster_id'].astype(int).astype(str)
scaler = StandardScaler()
scaled_features = scaler.fit_transform(data.iloc[:,:-1])
kmeans = KMeans(n_clusters=5, **kmeans_kwargs)
kmeans.fit(scaled_features)
data['predicted_cluster_id'] = kmeans.labels_.astype(int).astype(str)
clf = xgb.XGBClassifier()
clf.fit(scaled_data.iloc[:,:-1], scaled_data['predicted_cluster_id'])
shap.initjs()
explainer = shap.TreeExplainer(clf)
shap_values = explainer.shap_values(scaled_data.iloc[0,:-1].values.reshape(1,-1))
shap.force_plot(explainer.expected_value[0], shap_values[0], link='logit') # repeat changing 0 for i in range(0, 5)

enter image description here

上面的图片是有意义的,因为类是“3”。但是为什么这个base_value,不应该是1/5呢?我刚才问自己 similar question但这次我已经设置了 link='logit'。

enter image description here

最佳答案

link="logit" 似乎不适合多类,因为它只适用于二进制输出。这就是为什么您看不到总和为 1 的概率。

让我们简化您的代码:

import numpy as np
from sklearn.datasets import make_blobs
import pandas as pd
from sklearn.preprocessing import StandardScaler
from sklearn.cluster import KMeans
import xgboost as xgb
import shap
from scipy.special import softmax, logit, expit
np.random.seed(42)

X, y_true = make_blobs(n_samples=500, centers=5, n_features=3, random_state=0)
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)
kmeans = KMeans(n_clusters=5)
y_predicted = kmeans.fit_predict(X_scaled, )

clf = xgb.XGBClassifier()
clf.fit(X_scaled, y_predicted)
shap.initjs()

然后,您看到的预期值是:

explainer = shap.TreeExplainer(clf)
explainer.expected_value
array([0.67111245, 0.60223354, 0.53357694, 0.50821152, 0.50145331])

是原始空间中的基本分数。

可以使用 softmax 将多类原始分数转换为概率:

softmax(explainer.expected_value)
array([0.22229282, 0.20749694, 0.19372895, 0.18887673, 0.18760457])

shap.force_plot(..., link="logit") 对多类没有意义,似乎不可能从原始切换到概率并仍然保持可加性(因为 softmax( x+y) ≠ softmax(x) + softmax(y)).

如果您希望在概率空间中分析数据,请尝试 KernelExplainer:

from shap import KernelExplainer
masker = shap.maskers.Independent(X_scaled, 100)
ke = KernelExplainer(clf.predict_proba, data=masker.data)
ke.expected_value
# array([0.18976762, 0.1900516 , 0.20042894, 0.19995041, 0.21980143])
shap_values=ke.shap_values(masker.data)
shap.force_plot(ke.expected_value[0], shap_values[0][0])

enter image description here

或概要图:

from shap import Explanation
shap.waterfall_plot(Explanation(shap_values[0][0],ke.expected_value[0]))

enter image description here

现在可以添加概率空间中的 shap 值,并与基础概率(见上文)和第 0 个数据点的预测概率很好地对齐:

clf.predict_proba(masker.data[0].reshape(1,-1))
array([[2.2844513e-04, 8.1287889e-04, 6.5225776e-04, 9.9737883e-01,
9.2762709e-04]], dtype=float32)

关于python - 使用SHAP时如何解释多类分类问题的base_value?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65029216/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com