- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有以下工作流程。
def read_file(path, indx):
df = pd.read_parquet(path)
df.index = [indx] * len(df)
return df
files_list = get_all_files() # list of 10k parquet files, each about 1MB
df = dask.dataframe.from_delayed([dask.delayed(read_file)(x, indx) for (indx, x) in enumerate(files_list)])
df.divisions = list(range(10000)) + [9999] # each divisions include 1 file
new_divisions = [0, 10, 23, 45, ...., 9999] # new_divisions that reduces number of partitions by putting a bunch of files into same partitions.
df = df.repartition(divisions = new_divisions)
df.to_parquet("fewer_files") # This causes dask to essentially freeze and no files get written
选择新分区时,每个分区中文件的总内存不超过 1000 MB。然而,最终的 to_parquet 调用永远挂起。 dask 仪表板上没有任何事件。所有工作人员消耗的内存仍然非常小(55MB),至少在仪表板中是如此;但我怀疑它可能只是没有更新,因为一切都变得 super 慢。运行代码的python进程不断增加内存消耗(Mac中的虚拟内存不断增加;我让它达到30GB)。
如果 files_list 中只有大约 200 个文件,则代码可以正常工作。以下是当 files_list 中有 236 个文件被重新分区为 41 个分区时 df.visualize() 的样子:
当有 10k 个文件时,您知道什么可能导致 df.to_parquet 卡住吗?当我在计算之前打印 df 时,它显示以下内容:
npartitions=65, Dask Name: repartition-merge, 26417 tasks
此外,我可以让 df.get_partition(0).to_parquet 或其他分区相当快地工作。但是,整个数据集上的 df.to_parquet 失败。对于我的笔记本电脑中的 4 个工作人员来说,26K 任务是否太多了?
最佳答案
使用dask.dataframe.read_parquet
或其他 dask I/O 实现,尽可能不使用 dask.delayed
包装 pandas I/O 操作。让 dask 直接访问文件对象或文件路径允许调度程序快速评估作业中的步骤并准确估计作业大小和要求,而无需执行完整的工作流程。
通过将 dask.delayed 与 pandas read_parquet reader 一起使用,您实际上剥夺了 dask 窥视文件结构的能力,以帮助安排作业,以及在运行时多次打开和关闭文件完整的工作(你甚至还没有解决的问题)。
当所有内容都整齐地装入内存时,使用 dask.dataframe.read_parquet
和您使用的延迟方法非常相似。当最佳策略不是简单地“读入所有数据,然后弄清楚如何处理它”时,就会出现差异。具体来说,您正在执行许多重新索引和排序操作,所有这些操作都需要 dask 在安排索引操作操作之前了解有关文件内容的大量信息。
本质上,将某些内容包装在 dask.delayed
中告诉 dask“这是一个未知的代码块。将其作为纯 python 黑盒运行很多次。dask.dataframe
与 pandas 和 numpy 接口(interface)相比,code> 和 dask.array 接口(interface)具有更小的 API 和更少的互操作性,但你得到的是 dask 实际上知道幕后发生了什么,并且可以为你优化它. 当您使用 dask.delayed 时,您将获得灵活性,但代价是 dask 无法为您调整操作。
作为一个例子,我将创建大量的小文件:
In [9]: tinydf = pd.DataFrame({"col1": [11, 21], "col2": [12, 22]})
...: for i in range(1000):
...: tinydf.to_parquet(f"myfile_{i}.parquet")
dask.dataframe.read_parquet
现在,让我们用 dask.dataframe.read_parquet
来阅读此内容:
In [10]: df = dask.dataframe.read_parquet([f"myfile_{i}.parquet" for i in range(1000)])
请注意,这速度快如闪电。我们可以通过检查 dask
属性来查看高级任务图:
In [13]: df.dask
Out[13]:
HighLevelGraph with 1 layers.
<dask.highlevelgraph.HighLevelGraph object at 0x15f79e2f0>
0. read-parquet-e38709bfe39c7f8dfb5c4abf2fd08b50
请注意,dask.dataframe.read_parquet 对于 dask 来说是一个单一的概念。它可以根据任务的需要进行调整和优化。这包括“查看”文件以了解其列结构、查看元数据文件/属性等,而无需读取所有数据。
In [30]: df.divisions = list(range(0, 2001, 2))
In [31]: df = df.repartition(divisions=list(range(0, 2001, 500)))
In [33]: df.dask
Out[33]:
HighLevelGraph with 2 layers.
<dask.highlevelgraph.HighLevelGraph object at 0x168b5fcd0>
0. read-parquet-e38709bfe39c7f8dfb5c4abf2fd08b50
1. repartition-merge-bc42fb2f09234f7656901995bf3b29fa
完整工作流程的高级图表有两个步骤! Dask 了解文件 I/O 和重新分区方面的操作。它可以决定如何拆分这些任务,以保持在内存限制内并将工作负载分散到工作人员之间,而不会导致调度程序陷入困境。
dask.delayed(pd.read_parquet)
另一方面,如果我们使用 dask.delayed 执行此操作会发生什么?
In [14]: def read_file(path, indx):
...: df = pd.read_parquet(path)
...: df.index = [indx] * len(df)
...: return df
...:
...:
...: files_list = [f"myfile_{i}.parquet" for i in range(1000)]
...: df = dask.dataframe.from_delayed(
...: [dask.delayed(read_file)(x, indx) for (indx, x) in enumerate(files_list)]
...: )
数据帧预览最终看起来很相似,但如果我们在高级任务图的引擎盖下查看,我们可以看到 dask 需要读入所有数据,然后才能知道索引是什么样子!
In [16]: df.dask
Out[16]:
HighLevelGraph with 1001 layers.
<dask.highlevelgraph.HighLevelGraph object at 0x168bf6230>
0. read_file-b7aed020-1dc7-4872-a37d-d514b407a7d8
1. read_file-a0462606-999b-4af1-9977-acb562edab67
2. read_file-286df439-df34-4a5a-baf9-75dd0a5ae09b
3. read_file-4db8c178-a67e-4775-b117-228ac607f02f
4. read_file-a19d6144-5560-4da7-a1f5-8dc92b3ccf1c
# yeah... really there are 1000 of these...
998. read_file-d0cbd4a4-c255-4a77-a905-199bc289a0b5
999. read_file-45a80080-426a-48fd-8dcb-9ba7565307f1
1000. from-delayed-833eff6e232da1e10ca7221b961c21c1
更糟糕的是,每个 pd.read_parquet
使用默认的 pandas 读取行为,即假设数据可以装入内存并立即读取整个文件。 Pandas 不返回文件对象 - 它会加载所有数据并在 dask 看到它之前返回 DataFrame。
当我们开始尝试打乱索引时,情况只会变得更糟。我不会在这里详细讨论,但你明白了......
关于python - Dask DataFrame.to_parquet 读取 - 重新分区 - 写入操作失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/71486742/
我正在努力做到这一点 在我的操作中从数据库获取对象列表(确定) 在 JSP 上打印(确定) 此列表作为 JSP 中的可编辑表出现。我想修改然后将其提交回同一操作以将其保存在我的数据库中(失败。当我使用
我有以下形式的 Linq to Entities 查询: var x = from a in SomeData where ... some conditions ... select
我有以下查询。 var query = Repository.Query() .Where(p => !p.IsDeleted && p.Article.ArticleSections.Cou
我正在编写一个应用程序包,其中包含一个主类,其中主方法与GUI类分开,GUI类包含一个带有jtabbedpane的jframe,它有两个选项卡,第一个选项卡包含一个jtable,称为jtable1,第
以下代码产生错误 The nested query is not supported. Operation1='Case' Operation2='Collect' 问题是我做错了什么?我该如何解决?
我已经为 HA redis 集群(2 个副本、1 个主节点、3 个哨兵)设置了本地 docker 环境。只有哨兵暴露端口(10021、10022、10023)。 我使用的是 stackexchange
我正在 Desk.com 中构建一个“集成 URL”,它使用 Shopify Liquid 模板过滤器语法。对于开始日期为 7 天前而结束日期为现在的查询,此 URL 需要包含“开始日期”和“结束日期
你一定想过。然而情况却不理想,python中只能使用类似于 i++/i--等操作。 python中的自增操作 下面代码几乎是所有程序员在python中进行自增(减)操作的常用
我需要在每个使用 github 操作的手动构建中显示分支。例如:https://gyazo.com/2131bf83b0df1e2157480e5be842d4fb 我应该显示分支而不是一个。 最佳答
我有一个关于 Perl qr 运算符的问题: #!/usr/bin/perl -w &mysplit("a:b:c", /:/); sub mysplit { my($str, $patt
我已经使用 ArgoUML 创建了一个 ERD(实体关系图),我希望在一个类中创建两个操作,它们都具有 void 返回类型。但是,我只能创建一个返回 void 类型的操作。 例如: 我能够将 book
Github 操作仍处于测试阶段并且很新,但我希望有人可以提供帮助。我认为可以在主分支和拉取请求上运行 github 操作,如下所示: on: pull_request push: b
我正在尝试创建一个 Twilio 工作流来调用电话并记录用户所说的内容。为此,我正在使用 Record,但我不确定要在 action 参数中放置什么。 尽管我知道 Twilio 会发送有关调用该 UR
我不确定这是否可行,但值得一试。我正在使用模板缓冲区来减少使用此算法的延迟渲染器中光体积的过度绘制(当相机位于体积之外时): 使用廉价的着色器,将深度测试设置为 LEQUAL 绘制背面,将它们标记在模
有没有聪明的方法来复制 和 重命名 文件通过 GitHub 操作? 我想将一些自述文件复制到 /docs文件夹(:= 同一个 repo,不是远程的!),它们将根据它们的 frontmatter 重命名
我有一个 .csv 文件,其中第一列包含用户名。它们采用 FirstName LastName 的形式。我想获取 FirstName 并将 LastName 的第一个字符添加到它上面,然后删除空格。然
Sitecore 根据 Sitecore 树中定义的项目名称生成 URL, http://samplewebsite/Pages/Sample Page 但我们的客户有兴趣降低所有 URL(页面/示例
我正在尝试进行一些计算,但是一旦我输入金额,它就会完成。我只是希望通过单击按钮而不是自动发生这种情况。 到目前为止我做了什么: Angular JS - programming-fr
我的公司创建了一种在环境之间移动文件的复杂方法,现在我们希望将某些构建的 JS 文件(已转换和缩小)从一个 github 存储库移动到另一个。使用 github 操作可以实现这一点吗? 最佳答案 最简
在我的代码中,我创建了一个 JSONArray 对象。并向 JSONArray 对象添加了两个 JSONObject。我使用的是 json-simple-1.1.jar。我的代码是 package j
我是一名优秀的程序员,十分优秀!