- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有以下工作流程。
def read_file(path, indx):
df = pd.read_parquet(path)
df.index = [indx] * len(df)
return df
files_list = get_all_files() # list of 10k parquet files, each about 1MB
df = dask.dataframe.from_delayed([dask.delayed(read_file)(x, indx) for (indx, x) in enumerate(files_list)])
df.divisions = list(range(10000)) + [9999] # each divisions include 1 file
new_divisions = [0, 10, 23, 45, ...., 9999] # new_divisions that reduces number of partitions by putting a bunch of files into same partitions.
df = df.repartition(divisions = new_divisions)
df.to_parquet("fewer_files") # This causes dask to essentially freeze and no files get written
选择新分区时,每个分区中文件的总内存不超过 1000 MB。然而,最终的 to_parquet 调用永远挂起。 dask 仪表板上没有任何事件。所有工作人员消耗的内存仍然非常小(55MB),至少在仪表板中是如此;但我怀疑它可能只是没有更新,因为一切都变得 super 慢。运行代码的python进程不断增加内存消耗(Mac中的虚拟内存不断增加;我让它达到30GB)。
如果 files_list 中只有大约 200 个文件,则代码可以正常工作。以下是当 files_list 中有 236 个文件被重新分区为 41 个分区时 df.visualize() 的样子:
当有 10k 个文件时,您知道什么可能导致 df.to_parquet 卡住吗?当我在计算之前打印 df 时,它显示以下内容:
npartitions=65, Dask Name: repartition-merge, 26417 tasks
此外,我可以让 df.get_partition(0).to_parquet 或其他分区相当快地工作。但是,整个数据集上的 df.to_parquet 失败。对于我的笔记本电脑中的 4 个工作人员来说,26K 任务是否太多了?
最佳答案
使用dask.dataframe.read_parquet
或其他 dask I/O 实现,尽可能不使用 dask.delayed
包装 pandas I/O 操作。让 dask 直接访问文件对象或文件路径允许调度程序快速评估作业中的步骤并准确估计作业大小和要求,而无需执行完整的工作流程。
通过将 dask.delayed 与 pandas read_parquet reader 一起使用,您实际上剥夺了 dask 窥视文件结构的能力,以帮助安排作业,以及在运行时多次打开和关闭文件完整的工作(你甚至还没有解决的问题)。
当所有内容都整齐地装入内存时,使用 dask.dataframe.read_parquet
和您使用的延迟方法非常相似。当最佳策略不是简单地“读入所有数据,然后弄清楚如何处理它”时,就会出现差异。具体来说,您正在执行许多重新索引和排序操作,所有这些操作都需要 dask 在安排索引操作操作之前了解有关文件内容的大量信息。
本质上,将某些内容包装在 dask.delayed
中告诉 dask“这是一个未知的代码块。将其作为纯 python 黑盒运行很多次。dask.dataframe
与 pandas 和 numpy 接口(interface)相比,code> 和 dask.array 接口(interface)具有更小的 API 和更少的互操作性,但你得到的是 dask 实际上知道幕后发生了什么,并且可以为你优化它. 当您使用 dask.delayed 时,您将获得灵活性,但代价是 dask 无法为您调整操作。
作为一个例子,我将创建大量的小文件:
In [9]: tinydf = pd.DataFrame({"col1": [11, 21], "col2": [12, 22]})
...: for i in range(1000):
...: tinydf.to_parquet(f"myfile_{i}.parquet")
dask.dataframe.read_parquet
现在,让我们用 dask.dataframe.read_parquet
来阅读此内容:
In [10]: df = dask.dataframe.read_parquet([f"myfile_{i}.parquet" for i in range(1000)])
请注意,这速度快如闪电。我们可以通过检查 dask
属性来查看高级任务图:
In [13]: df.dask
Out[13]:
HighLevelGraph with 1 layers.
<dask.highlevelgraph.HighLevelGraph object at 0x15f79e2f0>
0. read-parquet-e38709bfe39c7f8dfb5c4abf2fd08b50
请注意,dask.dataframe.read_parquet 对于 dask 来说是一个单一的概念。它可以根据任务的需要进行调整和优化。这包括“查看”文件以了解其列结构、查看元数据文件/属性等,而无需读取所有数据。
In [30]: df.divisions = list(range(0, 2001, 2))
In [31]: df = df.repartition(divisions=list(range(0, 2001, 500)))
In [33]: df.dask
Out[33]:
HighLevelGraph with 2 layers.
<dask.highlevelgraph.HighLevelGraph object at 0x168b5fcd0>
0. read-parquet-e38709bfe39c7f8dfb5c4abf2fd08b50
1. repartition-merge-bc42fb2f09234f7656901995bf3b29fa
完整工作流程的高级图表有两个步骤! Dask 了解文件 I/O 和重新分区方面的操作。它可以决定如何拆分这些任务,以保持在内存限制内并将工作负载分散到工作人员之间,而不会导致调度程序陷入困境。
dask.delayed(pd.read_parquet)
另一方面,如果我们使用 dask.delayed 执行此操作会发生什么?
In [14]: def read_file(path, indx):
...: df = pd.read_parquet(path)
...: df.index = [indx] * len(df)
...: return df
...:
...:
...: files_list = [f"myfile_{i}.parquet" for i in range(1000)]
...: df = dask.dataframe.from_delayed(
...: [dask.delayed(read_file)(x, indx) for (indx, x) in enumerate(files_list)]
...: )
数据帧预览最终看起来很相似,但如果我们在高级任务图的引擎盖下查看,我们可以看到 dask 需要读入所有数据,然后才能知道索引是什么样子!
In [16]: df.dask
Out[16]:
HighLevelGraph with 1001 layers.
<dask.highlevelgraph.HighLevelGraph object at 0x168bf6230>
0. read_file-b7aed020-1dc7-4872-a37d-d514b407a7d8
1. read_file-a0462606-999b-4af1-9977-acb562edab67
2. read_file-286df439-df34-4a5a-baf9-75dd0a5ae09b
3. read_file-4db8c178-a67e-4775-b117-228ac607f02f
4. read_file-a19d6144-5560-4da7-a1f5-8dc92b3ccf1c
# yeah... really there are 1000 of these...
998. read_file-d0cbd4a4-c255-4a77-a905-199bc289a0b5
999. read_file-45a80080-426a-48fd-8dcb-9ba7565307f1
1000. from-delayed-833eff6e232da1e10ca7221b961c21c1
更糟糕的是,每个 pd.read_parquet
使用默认的 pandas 读取行为,即假设数据可以装入内存并立即读取整个文件。 Pandas 不返回文件对象 - 它会加载所有数据并在 dask 看到它之前返回 DataFrame。
当我们开始尝试打乱索引时,情况只会变得更糟。我不会在这里详细讨论,但你明白了......
关于python - Dask DataFrame.to_parquet 读取 - 重新分区 - 写入操作失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/71486742/
我正在处理一组标记为 160 个组的 173k 点。我想通过合并最接近的(到 9 或 10 个组)来减少组/集群的数量。我搜索过 sklearn 或类似的库,但没有成功。 我猜它只是通过 knn 聚类
我有一个扁平数字列表,这些数字逻辑上以 3 为一组,其中每个三元组是 (number, __ignored, flag[0 or 1]),例如: [7,56,1, 8,0,0, 2,0,0, 6,1,
我正在使用 pipenv 来管理我的包。我想编写一个 python 脚本来调用另一个使用不同虚拟环境(VE)的 python 脚本。 如何运行使用 VE1 的 python 脚本 1 并调用另一个 p
假设我有一个文件 script.py 位于 path = "foo/bar/script.py"。我正在寻找一种在 Python 中通过函数 execute_script() 从我的主要 Python
这听起来像是谜语或笑话,但实际上我还没有找到这个问题的答案。 问题到底是什么? 我想运行 2 个脚本。在第一个脚本中,我调用另一个脚本,但我希望它们继续并行,而不是在两个单独的线程中。主要是我不希望第
我有一个带有 python 2.5.5 的软件。我想发送一个命令,该命令将在 python 2.7.5 中启动一个脚本,然后继续执行该脚本。 我试过用 #!python2.7.5 和http://re
我在 python 命令行(使用 python 2.7)中,并尝试运行 Python 脚本。我的操作系统是 Windows 7。我已将我的目录设置为包含我所有脚本的文件夹,使用: os.chdir("
剧透:部分解决(见最后)。 以下是使用 Python 嵌入的代码示例: #include int main(int argc, char** argv) { Py_SetPythonHome
假设我有以下列表,对应于及时的股票价格: prices = [1, 3, 7, 10, 9, 8, 5, 3, 6, 8, 12, 9, 6, 10, 13, 8, 4, 11] 我想确定以下总体上最
所以我试图在选择某个单选按钮时更改此框架的背景。 我的框架位于一个类中,并且单选按钮的功能位于该类之外。 (这样我就可以在所有其他框架上调用它们。) 问题是每当我选择单选按钮时都会出现以下错误: co
我正在尝试将字符串与 python 中的正则表达式进行比较,如下所示, #!/usr/bin/env python3 import re str1 = "Expecting property name
考虑以下原型(prototype) Boost.Python 模块,该模块从单独的 C++ 头文件中引入类“D”。 /* file: a/b.cpp */ BOOST_PYTHON_MODULE(c)
如何编写一个程序来“识别函数调用的行号?” python 检查模块提供了定位行号的选项,但是, def di(): return inspect.currentframe().f_back.f_l
我已经使用 macports 安装了 Python 2.7,并且由于我的 $PATH 变量,这就是我输入 $ python 时得到的变量。然而,virtualenv 默认使用 Python 2.6,除
我只想问如何加快 python 上的 re.search 速度。 我有一个很长的字符串行,长度为 176861(即带有一些符号的字母数字字符),我使用此函数测试了该行以进行研究: def getExe
list1= [u'%app%%General%%Council%', u'%people%', u'%people%%Regional%%Council%%Mandate%', u'%ppp%%Ge
这个问题在这里已经有了答案: Is it Pythonic to use list comprehensions for just side effects? (7 个答案) 关闭 4 个月前。 告
我想用 Python 将两个列表组合成一个列表,方法如下: a = [1,1,1,2,2,2,3,3,3,3] b= ["Sun", "is", "bright", "June","and" ,"Ju
我正在运行带有最新 Boost 发行版 (1.55.0) 的 Mac OS X 10.8.4 (Darwin 12.4.0)。我正在按照说明 here构建包含在我的发行版中的教程 Boost-Pyth
学习 Python,我正在尝试制作一个没有任何第 3 方库的网络抓取工具,这样过程对我来说并没有简化,而且我知道我在做什么。我浏览了一些在线资源,但所有这些都让我对某些事情感到困惑。 html 看起来
我是一名优秀的程序员,十分优秀!