- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个相当大的数据集,我想分解它,但太大而无法加载到内存中。研究我的选择,似乎 sklearn's IncrementalPCA是一个不错的选择,但我不太清楚如何让它发挥作用。
我可以很好地加载数据:
f = h5py.File('my_big_data.h5')
features = f['data']
来自 this example ,看来我需要决定我想从中读取什么大小的 block :
num_rows = data.shape[0] # total number of rows in data
chunk_size = 10 # how many rows at a time to feed ipca
然后我可以创建我的 IncrementalPCA,逐 block 流式传输数据,并部分拟合它(同样来自上面的示例):
ipca = IncrementalPCA(n_components=2)
for i in range(0, num_rows//chunk_size):
ipca.partial_fit(features[i*chunk_size : (i+1)*chunk_size])
这一切都没有错误,但我不知道下一步该做什么。我实际上如何进行降维并获得一个可以进一步操作并保存的新 numpy 数组?
编辑
上面的代码用于测试数据的较小子集 - 正如 @ImanolLuengo 正确指出的那样,在最终代码中使用更多的维度和 block 大小会更好。
最佳答案
正如您所猜测的,拟合已正确完成,尽管我建议将 chunk_size
增加到 100 或 1000(甚至更高,具体取决于数据的形状)。
你现在要做的就是改造它,实际上是 transform正在阅读:
out = my_new_features_dataset # shape N x 2
for i in range(0, num_rows//chunk_size):
out[i*chunk_size:(i+1) * chunk_size] = ipca.transform(features[i*chunk_size : (i+1)*chunk_size])
这应该会给你带来新的转变功能。如果内存中仍然有太多样本,我建议使用 out
作为另一个 hdf5 数据集。
此外,我认为将庞大的数据集减少为 2 个组件可能不是一个好主意。但如果不知道你的特征
的形状,就很难说。我建议将它们减少到 sqrt(features.shape[1])
,因为这是一个不错的启发式方法,或者专业提示:使用 ipca.explained_variance_ratio_
来确定最佳数量您可以承受的信息丢失阈值的功能。
编辑:对于explained_variance_ratio_
,它返回一个维度n_components
的向量(作为参数传递给IPCA的n_components
),其中每个值i表示由第i个新组件解释的原始数据方差的百分比。
您可以按照 this answer 中的步骤操作提取前 n 个组件保留了多少信息:
>>> print(ipca.explained_variance_ratio_.cumsum())
[ 0.32047581 0.59549787 0.80178824 0.932976 1. ]
注意:数字是从上面的答案中虚构的,假设您已将 IPCA 减少到 5 个组件。第 i 个数字表示有多少原始数据由前 [0, i] 个分量解释,因为它是解释方差比的累积和。
因此,通常所做的是将 PCA 拟合到与原始数据相同数量的组件:
ipca = IncrementalPCA(n_components=features.shape[1])
然后,在对整个数据进行训练(使用迭代 + partial_fit
)后,您可以绘制 explain_variance_ratio_.cumsum()
并选择您想要丢失的数据量。或者自动执行:
k = np.argmax(ipca.explained_variance_ratio_.cumsum() > 0.9)
上面将返回 cumcum 数组上的第一个索引,其值为 > 0.9
,这表示保留至少 90% 原始数据的 PCA 分量的数量。
然后您可以调整转换以反射(reflect)它:
cs = chunk_size
out = my_new_features_dataset # shape N x k
for i in range(0, num_rows//chunk_size):
out[i*cs:(i+1)*cs] = ipca.transform(features[i*cs:(i+1)*cs])[:, :k]
注意对 :k
的切片仅选择前 k
组件,而忽略其余组件。
关于python - 如何使用sklearn的IncrementalPCApartial_fit,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44334950/
我知道有几个类似的问题被问到,但我的问题仍然没有得到解答。 问题来了。我使用命令 python3 -m pip3 install -U scikit-learn 来安装 sklearn、numpy 和
_train_weather.values : [[ 0.61818182 0.81645199 0.6679803 ..., 0. 0. 1.
如果我有一个数据集X及其标签Y,那么我将其分为训练集和测试集,scle为0.2,并使用随机种子进行洗牌: 11 >>>X.shape (10000, 50,50) train_data, test_d
首先我查看了所有相关问题。给出了非常相似的问题。 所以我遵循了链接中的建议,但没有一个对我有用。 Data Conversion Error while applying a function to
这里有两种标准化方法: 1:这个在数据预处理中使用:sklearn.preprocessing.normalize(X,norm='l2') 2:分类方法中使用另一种方法:sklearn.svm.Li
所以刚看了一个教程,作者不需要import sklearn使用时 predict anaconda 环境中pickled 模型的功能(安装了sklearn)。 我试图在 Google Colab 中重
我想评估我的机器学习模型。我使用 roc_auc_score() 计算了 ROC 曲线下的面积,并使用 sklearn 的 plot_roc_curve() 函数绘制了 ROC 曲线。在第二个函数中,
我一直在寻找此信息,但在任何地方都找不到,所以这是我的镜头。 我是Python 2.7的初学者,我学习了一个模型,感谢cPickle我保存了它,但现在我想知道是否可以从另一个设备(没有sklearn库
>>> import sklearn.model_selection.train_test_split Traceback (most recent call last): File "", li
在阅读有关使用 python 的 LinearDiscriminantAnalysis 的过程中,我有两种不同的方法来实现它,可在此处获得, http://scikit-learn.org/stabl
我正在使用 sklearn,我注意到 sklearn.metrics.plot_confusion_matrix 的参数和 sklearn.metrics.confusion_matrix不一致。 p
我正在构建一个多标签文本分类程序,我正在尝试使用 OneVsRestClassifier+XGBClassifier 对文本进行分类。最初,我使用 Sklearn 的 Tf-Idf 矢量化来矢量化文本
我想看看模型是否收敛于我的交叉验证。我如何增加或减少 sklearn.svm.SVC 中的时代? 目前: SVM_Model = SVC(gamma='auto') SVM_Model.fit(X_t
有人可以帮助我吗?我很难知道它们之间的区别 from sklearn.model_selection import train_test_split from sklearn.cross_valida
我需要提取在 sklearn.ensemble.BaggingClassifier 中训练的每个模型的概率。这样做的原因是为了估计 XGBoostClassifier 模型的不确定性。 为此,我创建了
无法使用 scikit-learn 0.19.1 导入 sklearn.qda 和 sklearn.lda 我得到: 导入错误:没有名为“sklearn.qda”的模块 导入错误:没有名为“sklea
我正在尝试在 google cloud ai 平台上创建一个版本,但找不到 impute 模块 No module named 'sklearn.impute._base; 'sklearn.impu
我在 PyQt5 中编写了一个 GUI,其中包括以下行 from sklearn.ensemble import RandomForestClassifier 。 遵循this answer中的建议,
我正在做一个 Kaggle 比赛,需要输入一些缺失的数据。我安装了最新的Anaconda(4.5.4)具有所有相关依赖项(即 scikit-learn (0.19.1) )。 当我尝试导入模块时,出现
在安装了所需的模块后,我正在尝试将imblearn导入到我的Python笔记本中。但是,我收到以下错误:。。附加信息:我使用的是一个用Visual Studio代码编写的虚拟环境。。我已经确定venv
我是一名优秀的程序员,十分优秀!