- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在使用随机森林模型和神经网络进行二元分类,其中使用 SHAP 来解释模型预测。我按照教程编写了以下代码以获得如下所示的瀑布图
row_to_show = 20
data_for_prediction = ord_test_t.iloc[row_to_show] # use 1 row of data here. Could use multiple rows if desired
data_for_prediction_array = data_for_prediction.values.reshape(1, -1)
rf_boruta.predict_proba(data_for_prediction_array)
explainer = shap.TreeExplainer(rf_boruta)
# Calculate Shap values
shap_values = explainer.shap_values(data_for_prediction)
shap.plots._waterfall.waterfall_legacy(explainer.expected_value[0], shap_values[0],ord_test_t.iloc[row_to_show])
这生成了如下图所示的图
但是,我想将其导出到数据框,我该怎么做?
我希望我的输出如下所示。我想将其导出为完整的数据框。你能帮我一下吗?
最佳答案
让我们做一个小实验:
from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import load_breast_cancer
from shap import TreeExplainer
X, y = load_breast_cancer(return_X_y=True)
model = RandomForestClassifier(max_depth=5, n_estimators=100).fit(X, y)
explainer = TreeExplainer(model)
这里的解释器
是什么?如果你执行dir(explainer)
,你会发现它有一些方法和属性,其中包括:
explainer.expected_value
您对此感兴趣,因为这是 SHAP 值相加的基础。
此外:
sv = explainer.shap_values(X)
len(sv)
会给出提示sv
是一个由2个对象组成的列表,它们很可能是1
和0
的SHAP值,它们必须是对称(因为朝向 1 的方向移动的量完全相同,但符号相反,朝向 0
)。
因此:
sv1 = sv[1]
现在您已拥有将其打包为所需格式的一切:
df = pd.DataFrame(sv1, columns=X.columns)
df.insert(0, 'bv', explainer.expected_value[1])
问:我怎么知道?
A:阅读文档和源代码。
关于python - 将 SHAP 瀑布图导出到数据框,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/71688298/
我需要更好地理解我的 LightGBM 模型,所以我使用了 SHAP 树解释器。 lightgbm 需要对数据进行编码,我将相同的数据传递给树解释器。所以,我担心 SHAP TreeExplainer
对于下面给出的代码,我得到了 shap 值的不同条形图。 在这个例子中,我有一个包含 1000 个 train 样本和 9 个类和 500 个 test 样本的数据集。然后我使用随机森林作为分类器并生
使用以下 Python 代码创建 SHAP summary_plot: explainer = shap.TreeExplainer(model2) shap_values = explainer.s
使用以下 Python 代码创建 SHAP summary_plot: explainer = shap.TreeExplainer(model2) shap_values = explainer.s
我一直在玩玩具数据集,以了解更多关于 shap 库和用法的信息。我发现这个问题是 catboost 回归模型的特征重要性与 shap 库中 summary_plot 的特征重要性不同。 我正在分析 X
我正在使用随机森林进行二元分类,并尝试使用 SHAP 来解释模型预测。 但是,我想将带有值的 SHAP 局部解释图转换为每个实例的 pandas 数据框。 这里有人可以帮助我将 SHAP 本地解释导出
我想获得一个包含重要特征的数据框。使用下面的代码,我得到了 shap_values,但我不确定这些值是什么意思。在我的 df 中有 142 个特征和 67 个实验,但得到了一个带有 ca 的数组。 2
假设我们有一个二元分类问题,我们有两个类别 1 和 0 作为我们的目标。我的目标是使用树分类器来预测给定特征的 1 和 0。此外,我可以使用 SHAP 值对预测 1 和 0 的特征重要性进行排名。到现
我正在使用 python shap包以更好地理解我的机器学习模型。 (来自 documentation:“SHAP(SHpley Additive exPlanations)是一种解释任何机器学习模型
我目前正在尝试在 SHAP 摘要图上绘制一组特定特征。但是,我正在努力寻找这样做所需的代码。 查看 Github 上的源代码时,summary_plot 函数似乎确实具有“功能”属性。但是,这似乎不是
我正在使用随机森林模型和神经网络进行二元分类,其中使用 SHAP 来解释模型预测。我按照教程编写了以下代码以获得如下所示的瀑布图 row_to_show = 20 data_for_predictio
我想更改从 shap 库生成的图的纵横比。 下面的最小可重现示例图: import numpy as np import pandas as pd import matplotlib.pyplot
我正在使用随机森林模型和神经网络进行二元分类,其中使用 SHAP 来解释模型预测。我按照教程编写了以下代码以获得如下所示的瀑布图 row_to_show = 20 data_for_predictio
我想更改从 shap 库生成的图的纵横比。 下面的最小可重现示例图: import numpy as np import pandas as pd import matplotlib.pyplot
我想做一个简单的形状分析并绘制一个 shap.force_plot。我注意到它在 .ipynb 文件中本地运行没有任何问题,但在 Databricks 上失败并显示以下错误消息: Visualizat
我正在尝试为我的随机森林模型创建一个 force_plot,它有两个类(1 和 2),但我对 force_plot 的参数有点困惑。 我有两个不同的 force_plot 参数,我可以提供以下参数:
我需要绘制每个特征如何影响我的 LightGBM 二元分类器中每个样本的预测概率。所以我需要输出概率的 Shap 值,而不是正常的 Shap 值。它似乎没有任何概率输出选项。 下面的示例代码是我用来生
我正在尝试使用 SHAP 对我的产品分类模型进行一些不良案例分析。我的数据看起来像这样: corpus_train, corpus_test, y_train, y_test = train_test
我有一个带有 2 个目标变量的 tensorflow 模型,我想按如下方式查看其 SHAP 值: import pandas as pd import tensorflow as tf import
我有以下数据框: import pandas as pd import random import xgboost import shap foo = pd.DataFrame({'id':[1,2,
我是一名优秀的程序员,十分优秀!