gpt4 book ai didi

php - 从mysql服务器访问和存储大量数据

转载 作者:可可西里 更新时间:2023-11-01 06:08:08 26 4
gpt4 key购买 nike

我们正在开发一个从服务器下载大量数据的iOS/Android应用程序。

我们使用 JSON 在服务器和客户端设备之间传输数据。

最近我们的数据量增加了很多(大约 30000 条记录)。

获取此数据时,服务器请求超时,无法获取任何数据。

谁能建议实现快速数据传输的最佳方法?

有没有什么方法先准备数据,然后再下载数据?

在设备中使用多个数据库(SQLite dbS)并执行并行插入数据库有什么好处吗?

目前我们只下载/上传更改的数据(使用 UUID 和时间戳)。

是否有任何最佳方法可以有效地实现这一点?

---- 编辑-----

我觉得不仅仅是mysql记录的问题,在高峰期有多个设备连接到服务器访问数据,所以连接也进入等待状态。我们正在使用性能服务器。我主要是在寻找一种解决方案来处理设备中的这种同步。任何简化同步或使用多线程、多个 sqlite 数据库等使其更快的好方法,...?或数据压缩,使用 View 或...?

最佳答案

实现此目的的一个好方法可能是根本不下载任何数据。

我想您不会在您的客户端显示这 30k 行,那么为什么首先要下载它们呢?

在您的服务器上创建一个 API 可能会更好,这将有助于移动设备与数据库进行通信,以便客户端只下载他们实际需要/想要的数据。

然后,借助移动端的缓存系统,您可以确保客户不会每次都下载相同的内容,并且他们已经看过的内容可以离线使用。

关于php - 从mysql服务器访问和存储大量数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22778393/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com