- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在做一个基本上可以归结为求解矩阵方程的项目
A.dot(x) = d
哪里A
是一个到 2000 年尺寸大约为 10 000 000 的矩阵(我想最终在两个方向上增加它)。
A
显然不适合内存,所以这必须并行化。我通过解决 A.T.dot(A).dot(x) = A.T.dot(d)
来做到这一点反而。 A.T
将具有 2000 x 2000 的尺寸。可以通过除以 A
来计算。和 d
成 block A_i
和 d_i
, 沿行计算 A_i.T.dot(A_i)
和 A_i.T.dot(d_i)
,并对这些求和。非常适合并行化。我已经能够使用多处理模块实现这一点,但是 1) 由于内存使用,很难进一步扩展(在两个维度上增加 A
),并且 2)不漂亮(因此不容易维护) .
Dask 似乎是一个非常有前途的库来解决这两个问题,我也做了一些尝试。我的A
矩阵计算起来很复杂:它基于大约 15 个不同的数组(大小等于 A
中的行数),其中一些用于迭代算法以评估相关的勒让德函数。当chunks很小(10000行)时,构建task graph的时间会非常长,而且会占用大量的内存(内存的增加与迭代算法的调用是一致的)。当 block 较大时(50000 行),计算前的内存消耗会小很多,但在计算 A.T.dot(A)
时会迅速耗尽。 .我试过 cache.Chest
, 但它显着减慢了计算速度。
任务图必须非常大且复杂 - 调用 A._visualize()
崩溃。更简单 A
矩阵,它可以直接执行此操作(请参阅@MRocklin 的回复)。我有办法简化它吗?
任何有关如何解决此问题的建议都将不胜感激。
作为玩具示例,我尝试了
A = da.ones((2e3, 1e7), chunks = (2e3, 1e3))
(A.T.dot(A)).compute()
这也失败了,耗尽了所有内存,只有一个核心处于事件状态。与
chunks = (2e3, 1e5)
, 所有核心几乎立即启动,但是
MemoryError
在 1 秒内出现(我当前的计算机上有 15 GB)。
chunks = (2e3, 1e4)
更有希望,但它最终也消耗了所有内存。
编辑:我把toy example test打通了,因为尺寸不对,改了其余的尺寸。正如@MRocklin 所说,它确实适用于正确的尺寸。我添加了一个我现在认为与我的问题更相关的问题。
编辑2:这是我尝试做的一个非常简单的例子。我认为,问题在于定义
A
中的列所涉及的递归。 .
import dask.array as da
N = 1e6
M = 500
x = da.random.random((N, 1), chunks = 5*M)
# my actual
A_dict = {0:x}
for i in range(1, M):
A_dict[i] = 2*A_dict[i-1]
A = da.hstack(tuple(A_dict.values()))
A = A.rechunk((M*5, M))
ATA = A.T.dot(A)
这似乎导致了一个非常复杂的任务图,甚至在计算开始之前就占用了大量内存。
我现在通过将递归放在函数中解决了这个问题,使用 numpy
数组,或多或少做 A = x.map_blocks(...)
.
作为第二个注意事项,一旦我有了 A
矩阵任务图,计算A.T.dot(A)
直接似乎会出现一些内存问题(内存使用不是很稳定)。因此,我明确地分块计算,并对结果求和。即使有这些变通办法,dask 也会在速度和可读性方面产生很大差异。
最佳答案
你的输出非常非常大。
>>> A.T.dot(A).shape
(10000000, 10000000)
也许您打算用另一个方向的转置来计算这个?
>>> A.dot(A.T).shape
(2000, 2000)
这仍然需要一段时间(这是一个很大的计算量)但它确实完成了。
关于python - 将大矩阵与dask相乘,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35342769/
如果我有一个依赖于某些全局或其他常量的函数,如下所示: x = 123 def f(partition): return partition + x # note that x is def
我们可以通过哪些方式在 Dask Arrays 中执行项目分配?即使是一个非常简单的项目分配,如:a[0] = 2 不起作用。 最佳答案 正确的。这是文档中提到的第一个限制。 通常,涉及 for 循环
[mapr@impetus-i0057 latest_code_deepak]$ dask-worker 172.26.32.37:8786 distributed.nanny - INFO -
我正在构建一个 FastAPI 应用程序,它将为 Dask 数组的 block 提供服务。我想利用 FastAPI's asynchronous functionality旁边Dask-distrib
在延迟数据帧处理的几个阶段之后,我需要在保存数据帧之前对其进行重新分区。但是,.repartition() 方法要求我知道分区的数量(而不是分区的大小),这取决于处理后数据的大小,这是未知的。 我想我
我正在努力转换 dask.bag将字典放入 dask.delayed pandas.DataFrames进入决赛 dask.dataframe 我有一个函数 (make_dict) 将文件读入一个相当
我正在尝试使用 dask_cudf/dask 读取单个大型 parquet 文件(大小 > gpu_size),但它目前正在读取它到一个分区中,我猜这是从文档字符串推断出的预期行为: dask.dat
当启动一个 dask 分布式本地集群时,您可以为 dashboard_address 设置一个随机端口或地址。 如果稍后获取scheduler对象。有没有办法提取仪表板的地址。 我有这个: clust
我有一个 dask 数据框,由 parquet 支持。它有 1.31 亿行,当我对整个帧执行一些基本操作时,它们需要几分钟。 df = dd.read_parquet('data_*.pqt') un
我正在使用 24 个 vCPU 的谷歌云计算实例。运行代码如下 import dask.dataframe as dd from distributed import Client client =
我正在尝试在多台机器上分发一个大型 Dask 数据帧,以便(稍后)在数据帧上进行分布式计算。我为此使用了 dask-distributed。 我看到的所有 dask 分布式示例/文档都是从网络资源(h
我在 Django 服务器后面使用 Dask,这里总结了我的基本设置:https://github.com/MoonVision/django-dask-demo/可以在这里找到 Dask 客户端:h
我有以下格式的 Dask DataFrame: date hour device param value 20190701 21 dev_01 att_1 0.00
我正在尝试使用 dask 而不是 Pandas,因为我有 2.6gb csv 文件。 我加载它,我想删除一列。但似乎无论是 drop 方法 df.drop('column') 或切片 df[ : ,
我有一个比我的内存大得多的文本文件。我想按字典顺序对该文件的行进行排序。我知道如何手动完成: 分成适合内存的块 对块进行排序 合并块 我想用 dask 来做。我认为处理大量数据将是 dask 的一个用
使用 Dask 的分布式调度程序时,我有一个正在远程工作人员上运行的任务,我想停止该任务。 我该如何阻止?我知道取消方法,但如果任务已经开始执行,这似乎不起作用。 最佳答案 如果它还没有运行 如果任务
我需要将一个非常大的 dask.bag 的元素提交到一个非线程安全的存储区,即我需要类似的东西 for x in dbag: store.add(x) 我无法使用compute,因为包太大,无
如果我有一个已经索引的 Dask 数据框 >>> A.divisions (None, None) >>> A.npartitions 1 我想设置分区,到目前为止我正在做 A.reset_index
根据 this回答,如果 Dask 知道数据帧的索引已排序,则 Dask 数据帧可以执行智能索引。 如果索引已排序,我如何让 Dask 知道? 在我的具体情况下,我正在做这样的事情: for sour
我想从具有特定数量的工作人员的 python 启动本地集群,然后将客户端连接到它。 cluster = LocalCluster(n_workers=8, ip='127.0.0.1') client
我是一名优秀的程序员,十分优秀!