gpt4 book ai didi

json - 尝试减少 JSON 大小是否值得?

转载 作者:可可西里 更新时间:2023-11-01 15:05:49 25 4
gpt4 key购买 nike

我从移动应用程序提交相对大量的数据(最多 1000 个 JSON 对象),我通常会像这样编码:

[{
id: 12,
score: 34,
interval: 5678,
sub: 9012
}, {
id: ...
}, ...]

我可以通过提交数组数组来减小负载:

[[12, 34, 5678, 9012], [...], ...]

在属性名称上节省一些空间,并在服务器上重新创建对象(因为模式是固定的,或者至少它是服务器和客户端之间的契约)。

有效负载随后在 POST 请求中提交,最有可能通过 3G 连接(或者可能是 wifi)。

看起来我通过使用嵌套数组节省了一些带宽,但我不确定在应用 gzip 时是否明显,而且我不确定如何精确客观地衡量区别。

另一方面,嵌套数组感觉不是个好主意:它们的可读性较差,因此在调试时更难发现错误。此外,由于我们正在冲刷可读性,我们可以将数组展平,因为每个子数组都有固定数量的元素,服务器可以将其切分并再次重建对象。

非常感谢任何关于此主题的进一步阅读 Material 。

最佳答案

JSONH,又名 hpack,https://github.com/WebReflection/JSONH做一些与您的示例非常相似的事情:

[{
id: 12,
score: 34,
interval: 5678,
sub: 9012
}, {
id: 98,
score: 76,
interval: 5432,
sub: 1098
}, ...]

会变成:

[["id","score","interval","sub"],12,34,5678,9012,98,76,5432,1098,...]

关于json - 尝试减少 JSON 大小是否值得?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11160941/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com