- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我遇到过一种情况,org.json.JSONArray 对象非常大,这最终会导致延迟和其他问题。因此,我们决定将 JSONArray 分割成更小的 block 。例如,如果 JSONArray 是这样的:
- [{"alt_party_id_type":"xyz","first_name":"child1ss","status":"1","dob":"2014-10-02 00:00:00.0","last_name":"childSs"},
{"alt_party_id_type":"xyz","first_name":"suga","status":"1","dob":"2014-11-05 00:00:00.0","last_name":"test"},
{"alt_party_id_type":"xyz","first_name":"test4a","status":"1","dob":"2000-11-05 00:00:00.0","last_name":"test4s"},
{"alt_party_id_type":"xyz","first_name":"demo56","status":"0","dob":"2000-11-04 00:00:00.0","last_name":"Demo5"},{"alt_party_id_type":"xyz","first_name":"testsss","status":"1","dob":"1900-01-01 00:00:00.0","last_name":"testssssssssss"},{"alt_party_id_type":"xyz","first_name":"Demo1234","status":"0","dob":"2014-11-21 00:00:00.0","last_name":"Demo1"},{"alt_party_id_type":"xyz","first_name":"demo2433","status":"1","dob":"2014-11-13 00:00:00.0","last_name":"demo222"},{"alt_party_id_type":"xyz","first_name":"demo333","status":"0","dob":"2014-11-12 00:00:00.0","last_name":"demo344"},{"alt_party_id_type":"xyz","first_name":"Student","status":"1","dob":"2001-12-03 00:00:00.0","last_name":"StudentTest"}]
我需要帮助将 JSONArray 分成三个 JSONArray:
- [{"alt_party_id_type":"xyz","first_name":"child1ss","status":"1","dob":"2014-10-02 00:00:00.0","last_name":"childSs"}, {"alt_party_id_type":"xyz","first_name":"suga","status":"1","dob":"2014-11-05 00:00:00.0","last_name":"test"}, {"alt_party_id_type":"xyz","first_name":"test4a","status":"1","dob":"2000-11-05 00:00:00.0","last_name":"test4s"}]
- [{"alt_party_id_type":"xyz","first_name":"demo56","status":"0","dob":"2000-11-04 00:00:00.0","last_name":"Demo5"}, {"alt_party_id_type":"xyz","first_name":"testsss","status":"1","dob":"1900-01-01 00:00:00.0","last_name":"testssssssssss"}, {"alt_party_id_type":"xyz","first_name":"Demo1234","status":"0","dob":"2014-11-21 00:00:00.0","last_name":"Demo1"}]
- [{"alt_party_id_type":"xyz","first_name":"demo2433","status":"1","dob":"2014-11-13 00:00:00.0","last_name":"demo222"}, {"alt_party_id_type":"xyz","first_name":"demo333","status":"0","dob":"2014-11-12 00:00:00.0","last_name":"demo344"}, {"alt_party_id_type":"xyz","first_name":"Student","status":"1","dob":"2001-12-03 00:00:00.0","last_name":"StudentTest"}]
有人可以帮我吗?我尝试了很多选择但都失败了。
最佳答案
在处理巨大的输入文件时,您应该使用流式传输方式,而不是将整个文档加载到内存中,以减少内存占用,避免 OutOfMemoryError
,并可以在读取输入时开始处理。 JSONArray 对流式传输的支持很少,因此我建议查看 Jackson's streaming API , GSON streaming ,或类似的。
话虽如此,如果您坚持使用 JSONArray,则可以使用 JSONTokener 拼凑出流式传输方法。下面是一个示例程序,它将流式传输输入文件并创建单独的 JSON 文档,每个文档最多包含 10 个元素。
import java.io.*;
import java.util.*;
import org.json.*;
public class JsonSplit {
private static final int BATCH_SIZE = 10;
public static void flushFile(List<Object> objects, int d) throws Exception {
try (FileOutputStream output = new FileOutputStream("split-" + d
+ ".json");
Writer writer = new OutputStreamWriter(output, "UTF-8")) {
JSONArray jsonArray = new JSONArray(objects);
jsonArray.write(writer);
}
}
public static void main(String[] args) throws Exception {
int outputIndex = 0;
try (InputStream input = new BufferedInputStream(
new FileInputStream(args[0]))) {
JSONTokener tokener = new JSONTokener(input);
if (tokener.nextClean() != '[') {
throw tokener.syntaxError("Expected start of JSON array");
}
List<Object> jsonObjects = new ArrayList<>();
while (tokener.nextClean() != ']') {
// Back up one character, it's part of the next value.
tokener.back();
// Read the next value in the array.
jsonObjects.add(tokener.nextValue());
// Flush if max objects per file has been reached.
if (jsonObjects.size() == BATCH_SIZE) {
flushFile(jsonObjects, outputIndex);
jsonObjects.clear();
outputIndex++;
}
// Read and discard commas between array elements.
if (tokener.nextClean() != ',') {
tokener.back();
}
}
if (!jsonObjects.isEmpty()) {
flushFile(jsonObjects, outputIndex);
}
// Verify that end of input is reached.
if (tokener.nextClean() != 0) {
throw tokener.syntaxError("Expected end of document");
}
}
}
}
要了解为什么大文件需要流式传输方法,请下载或创建一个巨大的 JSON 文件,然后尝试运行不进行流式传输的简单实现。下面是一个 Perl 命令,用于创建一个包含 1,000,000 个元素且文件大小约为 16 MB 的 JSON 数组。
perl -le 'print "["; for (1..1_000_000) {print "," unless $_ == 1; print "{\"id\": " . int(rand(1_000_000)) . "}";} print "]"' > input_huge.json
如果您在此输入上运行 JsonSplit
,它将以较小的内存占用量顺利运行,生成 100,000 个文件,每个文件包含 10 个元素。此外,它将在启动时立即开始生成输出文件。
如果您运行以下 JsonSplitNaive
程序,该程序一次性读取整个 JSON 文档,那么它显然会在很长一段时间内不执行任何操作,然后因 OutOfMemoryError< 中止
.
import java.io.*;
import java.util.*;
import org.json.*;
public class JsonSplitNaive {
/*
* Naive version - do not use, will fail with OutOfMemoryError for
* huge inputs.
*/
private static final int BATCH_SIZE = 10;
public static void flushFile(List<Object> objects, int d) throws Exception {
try (FileOutputStream output = new FileOutputStream("split-" + d
+ ".json");
Writer writer = new OutputStreamWriter(output, "UTF-8")) {
JSONArray jsonArray = new JSONArray(objects);
jsonArray.write(writer);
}
}
public static void main(String[] args) throws Exception {
int outputIndex = 0;
try (InputStream input = new BufferedInputStream(
new FileInputStream(args[0]))) {
List<Object> jsonObjects = new ArrayList<>();
JSONArray jsonArray = new JSONArray(new JSONTokener(input));
for (int i = 0; i < jsonArray.length(); i++) {
jsonObjects.add(jsonArray.get(i));
// Flush if max objects per file has been reached.
if (jsonObjects.size() == BATCH_SIZE) {
flushFile(jsonObjects, outputIndex);
jsonObjects.clear();
outputIndex++;
}
}
if (!jsonObjects.isEmpty()) {
flushFile(jsonObjects, outputIndex);
}
}
}
}
关于java - 将 JSONArray 拆分为更小的 JSONArray,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28263374/
我有一个功能是转换 ADO Recordset 进入html: class function RecordsetToHtml(const rs: _Recordset): WideString; 该函
经过几天的研究和讨论,我想出了这种方法来收集访客的熵(你可以看到我的研究历史here) 当用户访问时,我运行此代码: $entropy=sha1(microtime().$pepper.$_SERVE
给定一个无序列表 List ,我需要查找是否存在 String与提供的字符串匹配。 所以,我循环 for (String k : keys) { if (Utils.keysM
我已经搜索过这个问题,但没有找到我正在寻找的答案。 基本上,我想将类构造函数包装在 try/except 子句中,以便它忽略构造函数内特定类型的错误(但无论如何都会记录并打印它们)。我发现做到这一点的
我有一组三个数字,我想将一组数字与另一组数字进行比较。即,第一组中的每个数字小于另一组中的至少一个数字。需要注意的是,第一组中的下一个数字必须小于第二组中的不同数字(即,{6,1,6} 对 {8,8,
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 9 年前。 Improve this
首先介绍一下背景: 我正在开发一个带有 EJB 模块和应用程序客户端模块的企业应用程序 (ear)。我还使用 hibernate JPA 来实现持久性,并使用 swingx 来实现 GUI。这些是唯一
我正在尝试在我的上网本上运行 Eclipse 以便能够为 Android 进行开发。 您可能已经猜到了,Eclipse 非常慢,并且不容易有效地开发。 我正在使用 Linux Ubuntu 并且我还有
for row, instrument in enumerate(instruments): for col, value in enumerate(instrument):
return not a and not b ^ 我如何以更好的格式表达它 最佳答案 DeMorgan's Law , 也许? return not (a or b) 我认为在这一点上已经足够简单了
我正在尝试让 Font Awesome 图标看起来更 slim https://jsfiddle.net/cliffeee/7L6ehw9r/1/ . 我尝试使用“-webkit-text-strok
假设我有一个名为 vals 的数据框,如下所示: id…………日期…………min_date…… .........最大日期 1…………2016/01/01…………2017/01/01…………2018/
是否有更 Pythonic 的方式来做到这一点?: if self.name2info[name]['prereqs'] is None: se
我有一个函数可以将一些文本打印到它接收到的 ostream&。如果 ostream 以终端为目标,我想让它适应终端宽度,否则默认为某个值。 我现在做的是: 从 ostream 中获取一个 ofstre
这个问题在这里已经有了答案: Should a retrieval method return 'null' or throw an exception when it can't produce
我有这个 bc = 'off' if c.page == 'blog': bc = 'on' print(bc) 有没有更 Pythonic(和/或更短)的方式在 Python 中编写? 最佳
输入:一个包含 50,000 行的 CSV;每行包含 910 列值 0/1。 输出:运行我的 CNN 的数据框。 我编写了一个逐行读取 CSV 的代码。对于每一行,我将数据分成两部分,称为神经元(90
据我所知,with block 会在您退出 block 后自动调用 close(),并且它通常用于确保不会忘记关闭一个文件。 好像没有技术上的区别 with open(file, 'r+') as f
我有一个使用 Entity Framework V6.1.1 的 MVC 5 网站。 Entity Framework DbContext 类和模型最初都在网站项目中。这个项目有 3 个 DbCont
我是编程新手,在尝试通过将 tableView 和关联 View 的创建移动到单独的类并将委托(delegate)和数据源从 VC 移动到单独的类来精简我的 ViewController 时遇到了一些
我是一名优秀的程序员,十分优秀!