gpt4 book ai didi

json - 使用多线程加载大型 JSON 文件/

转载 作者:行者123 更新时间:2023-12-04 20:01:04 29 4
gpt4 key购买 nike

我正在尝试加载一个大的 3 GB JSON 文件。目前,使用 JQ 实用程序,我可以在近 40 分钟内加载整个文件。现在,我想知道如何在 JQ 中使用并行/多线程方法以在更短的时间内完成该过程。我正在使用 v1.5

使用的命令:

JQ.exe -r -s "map(.\"results\" | map({\"ID\": (((.\"body\"?.\"party\"?.\"xrefs\"?.\"xref\"//[] | map(select(ID))[]?.\"id\"?))//null), \"Name\": (((.\"body\"?.\"party\"?.\"general-info\"?.\"full-name\"?))//null)} | [(.\"ID\"//\"\"|tostring), (.\"Name\"//\"\"|tostring)])) | add[] | join(\"~\")" "\C:\InputFile.txt" >"\C:\OutputFile.txt"

我的数据:
{
"results": [
{
"_id": "0000001",
"body": {
"party": {
"related-parties": {},
"general-info": {
"last-update-ts": "2011-02-14T08:21:51.000-05:00",
"full-name": "Ibercaja Gestion SGIIC SAPensiones Nuevas Oportunidades",
"status": "ACTIVE",
"last-update-user": "TS42922",
"create-date": "2011-02-14T08:21:51.000-05:00",
"classifications": {
"classification": [
{
"code": "PENS"
}
]
}
},
"xrefs": {
"xref": [
{
"type": "LOCCU1",
"id": "X00893X"
},
{
"type": "ID",
"id": "1012227139"
}
]
}
}
}
},
{
"_id": "000002",
"body": {
"party": {
"related-parties": {},
"general-info": {
"last-update-ts": "2015-05-21T15:10:45.174-04:00",
"full-name": "Innova Capital Sp zoo",
"status": "ACTIVE",
"last-update-user": "jw74592",
"create-date": "1994-08-31T00:00:00.000-04:00",
"classifications": {
"classification": [
{
"code": "CORP"
}
]
}
},
"xrefs": {
"xref": [
{
"type": "ULTDUN",
"id": "144349875"
},
{
"type": "AVID",
"id": "6098743"
},
{
"type": "LOCCU1",
"id": "1001210218"
},
{
"type": "ID",
"id": "1001210218"
},
{
"type": "BLMBRG",
"id": "10009050"
},
{
"type": "REG_CO",
"id": "0000068508"
},
{
"type": "SMCI",
"id": "13159"
}
]
}
}
}
}
]
}

有人可以帮我在 v1.5 中使用哪个命令来实现并行/多线程。

最佳答案

这是一种流式传输方法,假设您的 3GB 数据文件位于 data.json以下过滤器位于 filter1.jq :

  select(length==2)
| . as [$p, $v]
| {r:$p[1]}
| if $p[2:6] == ["body","party","general-info","full-name"] then .name = $v
elif $p[2:6] == ["body","party","xrefs","xref"] and $p[7] == "id" then .id = $v
else empty
end

当你运行 jq 时
$ jq -M -c --stream -f filter1.jq data.json

jq 将产生您需要的最少细节的结果流
{"r":0,"name":"Ibercaja Gestion SGIIC SAPensiones Nuevas Oportunidades"}
{"r":0,"id":"X00893X"}
{"r":0,"id":"1012227139"}
{"r":1,"name":"Innova Capital Sp zoo"}
{"r":1,"id":"144349875"}
{"r":1,"id":"6098743"}
{"r":1,"id":"1001210218"}
{"r":1,"id":"1001210218"}
{"r":1,"id":"10009050"}
{"r":1,"id":"0000068508"}
{"r":1,"id":"13159"}

您可以使用第二个 filter2.jq 将其转换为您想要的格式:
foreach .[] as $i (
{c: null, r:null, id:null, name:null}

; .c = $i
| if .r != .c.r then .id=null | .name=null | .r=.c.r else . end # control break
| .id = if .c.id == null then .id else .c.id end
| .name = if .c.name == null then .name else .c.name end

; [.id, .name]
| if contains([null]) then empty else . end
| join("~")
)

运行时消耗第一个过滤器的输出
$ jq -M -c --stream -f filter1.jq data.json | jq -M -s -r -f filter2.jq

并产生
X00893X~Ibercaja Gestion SGIIC SAPensiones Nuevas Oportunidades
1012227139~Ibercaja Gestion SGIIC SAPensiones Nuevas Oportunidades
144349875~Innova Capital Sp zoo
6098743~Innova Capital Sp zoo
1001210218~Innova Capital Sp zoo
1001210218~Innova Capital Sp zoo
10009050~Innova Capital Sp zoo
0000068508~Innova Capital Sp zoo
13159~Innova Capital Sp zoo

这可能就是您只需要使用两个 所需要的全部内容jq 过程。如果您需要更多的并行性,您可以使用记录号 (r) 来对数据进行分区并并行处理这些分区。例如,如果您将中间输出保存到 temp.json文件
$ jq -M -c --stream -f filter1.jq data.json > temp.json

那么你可以处理 temp.json与过滤器并行,例如
$ jq -M 'select(0==.r%3)' temp.json | jq -M -s -r -f filter2.jq > result0.out &
$ jq -M 'select(1==.r%3)' temp.json | jq -M -s -r -f filter2.jq > result1.out &
$ jq -M 'select(2==.r%3)' temp.json | jq -M -s -r -f filter2.jq > result2.out &

如有必要,最后将您的分区连接成一个结果。此示例使用 3 个分区,但如果您需要更多并行性,您可以轻松地将此方法扩展到任意数量的分区。

GNU parallel也是不错的选择。如 JQ Cookbook 中所述, jq-hopkok's parallelism folder有一些很好的例子

关于json - 使用多线程加载大型 JSON 文件/,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30982175/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com