- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在 Coursera 上学习实用机器学习,但我对其中一项作业感到困惑。我想非常清楚地表明,我发帖不是因为我希望有人给我答案 - 我只是想帮助了解正在发生的事情。
我们正在学习 PCA 和预处理。我的理解是,PCA 就是试图将多个共线性变量一起折叠成一个因子,并且 PCA 算法试图在使用最少数量的变量的同时找到这些变量的最佳线性组合。例如,如果我有 5 个高度相关的变量,PCA 可能会发现仅在特定组合中使用其中的 4 个变量就可以解释最大的方差。然后,当您进行训练时,它会应用变量和系数的组合作为单个预测变量而不是单个变量(对吗)?
我无法理解幕后发生的事情。例如,在一次讲座中,数据集中有 58 个变量(第 58 个是 DV),我们尝试使用 PCA 进行预测。我试图了解代码的作用以及它正在创建什么类型的对象,这就是我可以使用一些帮助的地方。下面是代码和我的注释,我认为它们解释了正在发生的事情——有人可以纠正我吗?这些都是讲座上的,但是解释的不是很清楚。
preProc <- preProcess(log10(training[,-58]+1),method="pca",pcaComp=2)
trainPC <- predict(preProc,log10(training[,-58]+1))
modelFit <- train(training$type ~ .,method="glm",data=trainPC)
我正在尝试将这些“知识”应用于测验问题,如下所述。 我不需要答案,我只想解释代码的作用。
实际测验问题
使用以下命令加载阿尔茨海默病数据:
library(caret)
library(AppliedPredictiveModeling)
set.seed(3433)
data(AlzheimerDisease)
adData = data.frame(diagnosis,predictors)
inTrain = createDataPartition(adData$diagnosis, p = 3/4)[[1]]
training = adData[ inTrain,]
testing = adData[-inTrain,]
创建一个训练数据集,仅包含变量名称以 IL 开头的预测变量和诊断。构建两个预测模型,一种使用原样的预测变量,另一种使用主成分解释预测变量 80% 方差的 PCA。在训练函数中使用 method="glm"。测试集中每种方法的准确度是多少?哪个更准确?
最佳答案
您可以在此处详细了解插入符:https://cran.r-project.org/web/packages/caret/caret.pdf
1) 不完全是,您正在创建 PCA 预处理模型,该模型现在存储在 preProc 中,它将把所有 57 个不同的预测变量组合成 2 个具有一定权重的预测变量(每个新特征都是原始特征的不同线性组合),保持为尽可能多的方差。
2)现在您正在将上一步计算出的变换应用于您的特征,trainPC 现在仅包含 2 个特征。
3)是的,此时您正在拟合“glm”广义线性模型,它本身可能是分类或回归任务(不是像上一步一样转换特征,但您仍然可以像上一步一样使用预测来预测值)。 https://topepo.github.io/caret/Generalized_Linear_Model.html
关于机器学习的R和PCA解释,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31968053/
PyCaret是一个开源、低代码Python机器学习库,能够自动化机器学习工作流程。它是一个端到端的机器学习和模型管理工具,极大地加快了实验周期,提高了工作效率。PyCaret本质上是围绕几个机器学习
在我的研究进展中,我现在已经将寄生虫从图像中分离出来。寄生虫看起来像蠕虫。我希望 MATLAB 读取所有输入图像,查找类似深紫色图像的蠕虫,如果检测到,则给出检测到的答复。我尝试使用直方图比较,但我认
目前我正在尝试了解机器学习算法的工作方式,但我没有真正了解的一件事是预测标签的计算准确度与视觉混淆矩阵之间的明显差异。我会尽量解释清楚。 这是数据集的片段(这里你可以看到 9 个样本(在真实数据集中大
第一章 绪论 机器学习 : 致力于研究如何通过计算的手段,利用经验来改善系统自身的性能。在计算机系统中, “经验” 通常以“数据“形式存在,因此,机器学习所研究的主要内容,是关于在计算
1. 算法原理(K-Nearest Neighbor) 本质是通过距离判断两个样本是否相似,如果距离够近就认为他们足够相似属于同一类别 找到离其最近的 k 个样本,并将这些样本称
前言 K-means是一种经典的无监督学习算法,用于对数据进行聚类。K-means算法将数据集视为具有n个特征的n维空间,并尝试通过最小化簇内平方误差的总和来将数据点划分为簇。本文将介绍K-m
目录 前言 介绍LightGBM LightGBM的背景和起源 L
前言 可以说掌握了机器学习,你就具备了与机器对话,充分利用机器为人类服务的能力。在人工智能时代,这将成为一项必备技能,就好比十年前你是编程大牛,二十年前你英语超好一样。因此,无论你是什么专业的
几个贯穿始终的概念 当我们把人类学习简单事物的过程抽象为几个阶段,再将这些阶段通过不同的方法具体化为代码,依靠通过计算机的基础能力-- 计算 。我们就可以让机器能够“学会”一些简单的事物。
1、选题背景 人脸识别技术是模式识别和计算机视觉领域最富挑战性的研究课题之一,也是近年来的研究热点,人脸性别识别作为人脸识别技术
每当我们在公有云或者私有云发布训练好的大数据模型,为了方便大家辨识、理解和运用,参照huggingface所制定的标准制作一个Model Card展示页,是种非常好的模型展示和组织形式。 下面就是一
2. 支持向量机 对偶优化 拉格朗日乘数法可用于解决带条件优化问题,其基本形式为: \[\begin{gather} \min_w f(w),\\ \mathrm{s.t.} \quad
我正在尝试运行以下代码: https://github.com/opencv/opencv/blob/master/samples/dnn/classification.cpp 我在这里找到所有经过预
我是机器学习新手。当我使用 scikit-learn 模块中的波士顿数据集练习具有默认参数的决策树回归模型时。 在此链接解决方案( How to Build a Decision tree Regre
我有用于训练的数据。当我将其输入神经网络时,该数据出现 3% 的错误。 我知道这些数据有一定的过度代表性 - 例如,第 5 类的示例大约是其他类的十分之一。 我的作业指出,我可以通过偏置训练数据(即删
我在 Python 的多类分类中使用 SVM 时遇到问题。事实上,问题在于性别分类(来自图像),其中训练数据集仅包含“y=1”或“ y=-1”作为类标签(二进制)。但是,在预测中,如果是男性,我必须预
以防万一你们不知道,对抗性图像是属于某个类别的图像,但随后被扭曲,而人眼没有任何视觉感知差异,但网络错误地将其识别为完全不同的类别。 有关此内容的更多信息,请参见此处: http://karpathy
我正在进行一个 ML 语言识别项目 (Python),该项目需要具有高维特征输入的多类分类模型。 目前,我所能做的就是通过反复试验来提高准确性。无意识地结合可用的特征提取算法和可用的机器学习模型,看看
import numpy as np def sigmoid(x): return 1.0/(1+np.asmatrix(np.exp(-x))) def graD(X,y,alpha,s0,
所以我有多个列表: ['disney','england','france'] ['disney','japan'] ['england', 'london'] ['disney', 'france'
我是一名优秀的程序员,十分优秀!