- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有包含大量x变量的数据,这些变量主要是分类/标称的,而我的目标变量是多类标签。我能够建立几个模型来预测多类变量并比较每个变量的执行情况。我有训练和测试数据。培训和测试数据都给了我很好的结果。
现在,我试图找出模型“为什么”预测了某些Y变量?表示是否有天气数据:X变量:城市,州,邮政编码,温度,年份; Y变量:雨,太阳,阴天,雪。我想找出模型预测的“原因”:分别是降雨,阳光,多云或下雪。我使用了多名词,决策树等分类算法
这可能是一个广泛的问题,但是我需要一个可以开始研究的地方。我可以预测“什么”,但看不到“为什么”被预测为雨,日,多云或下雪标签。基本上,我试图找到导致预测变量的变量之间的链接。
到目前为止,我考虑过使用相关矩阵,主成分分析(在模型构建过程中发生)...至少是要查看哪些是好的预测变量,而哪些不是。有没有办法找出“为什么”因素?
谢谢一群!
最佳答案
模型的可解释性是当前研究的一个活跃而又热闹的领域(认为是圣杯之类的东西),最近提出来的原因不仅仅在于深度学习模型在各种任务中的(通常是巨大的)成功,还有算法公平性和责任制的必要性...
除了深入的理论研究之外,最近还有一些实用的工具箱和库,既用于神经网络,也用于其他通用ML模型。以下是部分清单,可以说应该让您忙一段时间:
Google的What-If工具是开源TensorBoard Web应用程序的一项全新功能(2018年9月),使用户无需编写代码即可分析ML模型(project page,blog post)
神经网络(paper,project page,code,TF Slim wrapper)的逐层相关性传播(LRP)工具箱
FairML:Cloudera Fast Forward Labs(blog post,paper,code)审核黑匣子预测模型
LIME:不可解释的本地模型解释(paper,code,blog post,R port)
Black Box Auditing和Certifying and Removing Disparate Impact(作者的Python code)
Geoff Hinton(Distilling a Neural Network Into a Soft Decision Tree)最近(2017年11月)的论文,其中有独立的PyTorch implementation
SHAP:解释模型预测的统一方法(paper,作者的Python code,R package)
可解释的卷积神经网络(paper,作者的code)
Lucid,一组用于研究神经网络可解释性的基础架构和工具(code;论文:Feature Visualization,The Building Blocks of Interpretability)
设计透明(TbD)网络(paper,code,demo)
SVCCA:用于深度学习动力学和可解释性的奇异矢量规范相关性分析(paper,code,Google blog post)
TCAV:使用概念激活向量(ICML 2018 paper,Tensorflow code)进行测试
Grad-CAM:深度网络通过基于梯度的本地化(paper,作者的Torch code,Tensorflow code,PyTorch code,Keras example notebook)的视觉解释
网络解剖:MIT CSAIL(project page,Caffe code,PyTorch port)量化深度视觉表示的可解释性
GAN解剖:MIT CSAIL撰写的《可视化和理解生成的对抗网络》(project page,带有论文和代码的链接)
解释修复:解释和更正DNN对象检测器预测(paper,code)的框架
Microsoft的InterpretML(code仍为alpha)
锚点:与模型无关的高精度解释(paper,code)
Microsoft(paper,code,blog post)的各种反事实说明(DiCE)
最后,随着可解释性逐渐成为主流,已经有框架和工具箱结合了以上提到和链接的一种以上算法和技术。这是Python内容的(再次,部分)列表:
tf-explain-可解释性方法,如Tensorflow 2.0回调(code,docs,blog post)
溜冰者,由Oracle(code,docs)
Alibi,由SeldonIO(code,docs)
AI Explainability 360,由IBM(code,blog post)
也可以看看:
Interpretable Machine Learning,Christoph Molnar的在线Gitbook,提供R code
Twitter thread,链接到R可用的几种解释工具。
Kaggle,Machine Learning Explainability和随附的blog post的短期(4小时)在线课程
...以及Awesome Machine Learning Interpetability存储库中的大量资源
关于machine-learning - 预测分析-“为什么”因素和模型的可解释性,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52391871/
我正在使用 R 预测包拟合模型,如下所示: fit <- auto.arima(df) plot(forecast(fit,h=200)) 打印原始数据框和预测。当 df 相当大时,这
我正在尝试预测自有住房的中位数,这是一个行之有效的例子,给出了很好的结果。 https://heuristically.wordpress.com/2011/11/17/using-neural-ne
type="class"函数中的type="response"和predict有什么区别? 例如: predict(modelName, newdata=testData, type = "class
我有一个名为 Downloaded 的文件夹,其中包含经过训练的 CNN 模型必须对其进行预测的图像。 下面是导入图片的代码: import os images = [] for filename i
关于预测的快速问题。 我尝试预测的值是 0 或 1(它设置为数字,而不是因子),因此当我运行随机森林时: fit , data=trainData, ntree=50) 并预测: pred, data
使用 Python,我尝试使用历史销售数据来预测产品的 future 销售数量。我还试图预测各组产品的这些计数。 例如,我的专栏如下所示: Date Sales_count Department It
我是 R 新手,所以请帮助我了解问题所在。我试图预测一些数据,但预测函数返回的对象(这是奇怪的类(因子))包含低数据。测试集大小为 5886 obs。 160 个变量,当预测对象长度为 110 时..
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭 6 年前。 Improve this qu
下面是我的神经网络代码,有 3 个输入和 1 个隐藏层和 1 个输出: #Data ds = SupervisedDataSet(3,1) myfile = open('my_file.csv','r
我正在开发一个 Web 应用程序,它具有全文搜索功能,可以正常运行。我想对此进行改进并向其添加预测/更正功能,这意味着如果用户输入错误或结果为 0,则会查询该输入的更正版本,而不是查询结果。基本上类似
我对时间序列还很陌生。 这是我正在处理的数据集: Date Price Location 0 2012-01-01 1771.0
我有许多可变长度的序列。对于这些,我想训练一个隐马尔可夫模型,稍后我想用它来预测(部分)序列的可能延续。到目前为止,我已经找到了两种使用 HMM 预测 future 的方法: 1) 幻觉延续并获得该延
我正在使用 TensorFlow 服务提供初始模型。我在 Azure Kubernetes 上这样做,所以不是通过更标准和有据可查的谷歌云。 无论如何,这一切都在起作用,但是我感到困惑的是预测作为浮点
我正在尝试使用 Amazon Forecast 进行一些测试。我现在尝试了两个不同的数据集,它们看起来像这样: 13,2013-03-31 19:25:00,93.10999 14,2013-03-3
使用 numpy ndarray大多数时候我们不需要担心内存布局的问题,因为结果并不依赖于它。 除非他们这样做。例如,考虑这种设置 3x2 矩阵对角线的稍微过度设计的方法 >>> a = np.zer
我想在同一个地 block 上用不同颜色绘制多个预测,但是,比例尺不对。我对任何其他方法持开放态度。 可重现的例子: require(forecast) # MAKING DATA data
我正在 R 中使用 GLMM,其中混合了连续变量和 calcategories 变量,并具有一些交互作用。我使用 MuMIn 中的 dredge 和 model.avg 函数来获取每个变量的效果估计。
我能够在 GUI 中成功导出分类器错误,但无法在命令行中执行此操作。有什么办法可以在命令行上完成此操作吗? 我使用的是 Weka 3.6.x。在这里,您可以右键单击模型,选择“可视化分类器错误”并从那
我想在同一个地 block 上用不同颜色绘制多个预测,但是,比例尺不对。我对任何其他方法持开放态度。 可重现的例子: require(forecast) # MAKING DATA data
我从 UCI 机器学习数据集库下载了一个巨大的文件。 (~300mb)。 有没有办法在将数据集加载到 R 内存之前预测加载数据集所需的内存? Google 搜索了很多,但我到处都能找到如何使用 R-p
我是一名优秀的程序员,十分优秀!