- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我有一个庞大的数据集,我希望对其进行 PCA。我受限于 RAM 和 PCA 的计算效率。因此,我转而使用迭代 PCA。
数据集大小-(140000,3504)
documentation声明 此算法具有恒定的内存复杂度,数量级为 batch_size,无需将整个文件加载到内存中即可使用 np.memmap 文件。
这真的很好,但不确定如何利用它。
我尝试加载一个 memmap,希望它能以 block 的形式访问它,但我的 RAM 崩溃了。我的以下代码最终使用了大量 RAM:
ut = np.memmap('my_array.mmap', dtype=np.float16, mode='w+', shape=(140000,3504))
clf=IncrementalPCA(copy=False)
X_train=clf.fit_transform(ut)
当我说“我的内存坏了”时,我看到的 Traceback 是:
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "C:\Python27\lib\site-packages\sklearn\base.py", line 433, in fit_transfo
rm
return self.fit(X, **fit_params).transform(X)
File "C:\Python27\lib\site-packages\sklearn\decomposition\incremental_pca.py",
line 171, in fit
X = check_array(X, dtype=np.float)
File "C:\Python27\lib\site-packages\sklearn\utils\validation.py", line 347, in
check_array
array = np.array(array, dtype=dtype, order=order, copy=copy)
MemoryError
如何在不影响准确性的情况下通过减小批量来改进这一点?
我的诊断思路:
我查看了 sklearn
源代码和 fit()
函数 Source Code我可以看到以下内容。这对我来说很有意义,但我仍然不确定我的情况出了什么问题。
for batch in gen_batches(n_samples, self.batch_size_):
self.partial_fit(X[batch])
return self
编辑:最坏的情况我将不得不为 iterativePCA 编写自己的代码,它通过读取和关闭 .npy 文件进行批处理。但这会破坏利用已经存在的黑客攻击的目的。
编辑2:如果我能以某种方式删除一批处理过的 memmap 文件
。这很有意义。
编辑 3:理想情况下,如果 IncrementalPCA.fit() 只是使用批处理,它不应该使我的 RAM 崩溃。发布整个代码,只是为了确保我之前在将 memmap 完全刷新到磁盘时没有犯错误。
temp_train_data=X_train[1000:]
temp_labels=y[1000:]
out = np.empty((200001, 3504), np.int64)
for index,row in enumerate(temp_train_data):
actual_index=index+1000
data=X_train[actual_index-1000:actual_index+1].ravel()
__,cd_i=pywt.dwt(data,'haar')
out[index] = cd_i
out.flush()
pca_obj=IncrementalPCA()
clf = pca_obj.fit(out)
令人惊讶的是,我注意到 out.flush
没有释放我的内存。有没有办法使用 del out
完全释放我的内存,然后有人将文件指针传递给 IncrementalPCA.fit()
。
最佳答案
您在 32 位环境中遇到了 sklearn
的问题。我假设您正在使用 np.float16
,因为您处于 32 位环境中,并且您需要它来允许您创建 memmap
对象而不会出现 numpy thowing 错误。
在 64 位环境中(在 Windows 上使用 Python3.3 64 位测试),您的代码开箱即用。所以,如果你有一台可用的 64 位计算机 - 安装 python 64 位和 numpy
、scipy
、scikit-learn
64 位,你就是一切顺利。
不幸的是,如果您不能这样做,就没有简单的解决方法。我有 raised an issue on github here ,但打补丁并不容易。根本问题在于,在库中,如果您的类型是 float16
,则会触发将数组复制到内存中。详情如下。
因此,我希望您可以访问具有大量 RAM 的 64 位环境。如果没有,您将不得不自己拆分阵列并对其进行批处理,这是一项相当大的任务...
N.B 很高兴看到您找到源代码来诊断您的问题 :) 但是,如果您查看代码失败的那一行(来自 Traceback ),您将看到您找到的 for batch in gen_batches
代码从未到达。
OP代码产生的实际错误:
import numpy as np
from sklearn.decomposition import IncrementalPCA
ut = np.memmap('my_array.mmap', dtype=np.float16, mode='w+', shape=(140000,3504))
clf=IncrementalPCA(copy=False)
X_train=clf.fit_transform(ut)
是
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "C:\Python27\lib\site-packages\sklearn\base.py", line 433, in fit_transfo
rm
return self.fit(X, **fit_params).transform(X)
File "C:\Python27\lib\site-packages\sklearn\decomposition\incremental_pca.py",
line 171, in fit
X = check_array(X, dtype=np.float)
File "C:\Python27\lib\site-packages\sklearn\utils\validation.py", line 347, in
check_array
array = np.array(array, dtype=dtype, order=order, copy=copy)
MemoryError
对check_array
( code link ) 的调用使用dtype=np.float
,但原始数组有dtype=np.float16
.即使 check_array()
函数 defaults to copy=False
和 passes this to np.array()
,这将被忽略( as per the docs ),以满足 dtype
不同的要求;因此 np.array
制作了一个副本。
这可以在 IncrementalPCA 代码中解决,方法是确保为具有 dtype in (np.float16, np.float32, np.float64)
的数组保留 dtype
.但是,当我尝试该补丁时,它只会将 MemoryError
推向执行链的更远。
当代码 calls linalg.svd()
出现同样的复制问题来自主要的 scipy 代码,这次错误发生在调用 to gesdd()
期间,来自 lapack
的包装 native 函数。因此,我认为没有办法对此进行修补(至少不是一种简单的方法 - 它至少需要更改核心 scipy 中的代码)。
关于python - 使用 memmap 文件进行批处理,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32242911/
我喜欢 smartcase,也喜欢 * 和 # 搜索命令。但我更希望 * 和 # 搜索命令区分大小写,而/和 ?搜索命令遵循 smartcase 启发式。 是否有隐藏在某个地方我还没有找到的设置?我宁
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题? Update the question所以它是on-topic对于堆栈溢出。 10年前关闭。 Improve this qu
从以下网站,我找到了执行java AD身份验证的代码。 http://java2db.com/jndi-ldap-programming/solution-to-sslhandshakeexcepti
似乎 melt 会使用 id 列和堆叠的测量变量 reshape 您的数据框,然后通过转换让您执行聚合。 ddply,从 plyr 包看起来非常相似..你给它一个数据框,几个用于分组的列变量和一个聚合
我的问题是关于 memcached。 Facebook 使用 memcached 作为其结构化数据的缓存,以减少用户的延迟。他们在 Linux 上使用 UDP 优化了 memcached 的性能。 h
在 Camel route ,我正在使用 exec 组件通过 grep 进行 curl ,但使用 ${HOSTNAME} 的 grep 无法正常工作,下面是我的 Camel 路线。请在这方面寻求帮助。
我正在尝试执行相当复杂的查询,在其中我可以排除与特定条件集匹配的项目。这是一个 super 简化的模型来解释我的困境: class Thing(models.Model) user = mod
我正在尝试执行相当复杂的查询,我可以在其中排除符合特定条件集的项目。这里有一个 super 简化的模型来解释我的困境: class Thing(models.Model) user = mod
我发现了很多嵌入/内容项目的旧方法,并且我遵循了在这里找到的最新方法(我假设):https://blog.angular-university.io/angular-ng-content/ 我正在尝试
我正在寻找如何使用 fastify-nextjs 启动 fastify-cli 的建议 我曾尝试将代码简单地添加到建议的位置,但它不起作用。 'use strict' const path = req
我正在尝试将振幅 js 与 React 和 Gatsby 集成。做 gatsby developer 时一切看起来都不错,因为它发生在浏览器中,但是当我尝试 gatsby build 时,我收到以下错
我试图避免过度执行空值检查,但同时我想在需要使代码健壮的时候进行空值检查。但有时我觉得它开始变得如此防御,因为我没有实现 API。然后我避免了一些空检查,但是当我开始单元测试时,它开始总是等待运行时异
尝试进行包含一些 NOT 的 Kibana 搜索,但获得包含 NOT 的结果,因此猜测我的语法不正确: "chocolate" AND "milk" AND NOT "cow" AND NOT "tr
我正在使用开源代码共享包在 iOS 中进行 facebook 集成,但收到错误“FT_Load_Glyph failed: glyph 65535: error 6”。我在另一台 mac 机器上尝试了
我正在尝试估计一个标准的 tobit 模型,该模型被审查为零。 变量是 因变量 : 幸福 自变量 : 城市(芝加哥,纽约), 性别(男,女), 就业(0=失业,1=就业), 工作类型(失业,蓝色,白色
我有一个像这样的项目布局 样本/ 一种/ 源/ 主要的/ java / java 资源/ .jpg 乙/ 源/ 主要的/ java / B.java 资源/ B.jpg 构建.gradle 设置.gr
如何循环遍历数组中的多个属性以及如何使用map函数将数组中的多个属性显示到网页 import React, { Component } from 'react'; import './App.css'
我有一个 JavaScript 函数,它进行 AJAX 调用以返回一些数据,该调用是在选择列表更改事件上触发的。 我尝试了多种方法来在等待时显示加载程序,因为它当前暂停了选择列表,从客户的 Angul
可能以前问过,但找不到。 我正在用以下形式写很多语句: if (bar.getFoo() != null) { this.foo = bar.getFoo(); } 我想到了三元运算符,但我认
我有一个表单,在将其发送到 PHP 之前我正在执行一些验证 JavaScript,验证后的 JavaScript 函数会发布用户在 中输入的文本。页面底部的标签;然而,此消息显示短暂,然后消失...
我是一名优秀的程序员,十分优秀!