gpt4 book ai didi

objective-c - 在 Mac 应用程序和 Web 之间同步 'lot' 小块数据的最佳方法是什么?

转载 作者:可可西里 更新时间:2023-11-01 09:15:52 25 4
gpt4 key购买 nike

我现在正在考虑使用 MongoDB。为了使目标明确,这里需要发生的事情:在我的应用程序 Finch(finchformac.com 的详细信息)中,我每天为每个用户提供他们打开的窗口、打开窗口的时间、关闭窗口的时间以及他们选择的标签的数以千计的条目为了它。我需要在线备份这些数据,以便它可以同步到他们的其他 Mac 计算机等。我还需要能够根据他们的数据在线绘制图表,这意味着一些复杂的查询会触及数十万条记录。

现在我已经尝试在应用程序端使用 Ruby/Rails/Mongoid 和 JSON 解析器一次发送 10,000 条记录的增量数据,数据通过后台 mapreduce 作业处理到其他集合。但是,这一切似乎都被阻止了,而且最终太慢了。有什么建议(如果有的话)如何解决这个问题?

最佳答案

您遇到了一个复杂的问题,这意味着您需要将其分解为更小、更容易解决的问题。

问题(如我所见):

  1. 您有一个正在收集数据的应用程序。你只需要将该数据存储在本地某处,直到它同步到服务器。
  2. 您已经在服务器上收到数据,现在您需要推送它以足够快的速度进入数据库,这样它就不会变慢。
  3. 您必须报告这些数据,这听起来既困难又复杂。

您可能希望将其编写为某种 API,为了简单起见(并且由于您在客户端上有大量的备用处理周期),您需要将这些数据 block 在客户端处理成 JSON 以准备好导入数据库。一旦你有了 JSON,你就不需要 Mongoid(你只需将 JSON 直接扔进数据库)。此外,您可能不需要 Rails,因为您只是在创建一个简单的 API,因此请坚持使用 Rack 或 Sinatra(可能使用类似 Grape 的东西)。

现在您需要解决整个“这一切似乎都被阻止并且最终太慢”的问题。我们已经删除了 Mongoid(因此无需从 JSON -> Ruby Objects -> JSON 转换)和 Rails。在我们开始对这些数据执行 MapReduce 之前,您需要确保它足够快地加载到数据库中。很可能您应该构建整个事物,以便您的 MapReduce 支持您的报告功能。对于同步数据,除了传递 JSON 之外,您不需要做任何事情。如果您的数据写入数据库的速度不够快,您应该考虑 Sharding your dataset .这可能会使用一些基于用户的 key 来完成,但您比我更了解您的数据模式。您需要选择分片键,以便当多个用户同时同步时,他们可能会使用不同的服务器。

一旦您解决了问题 1 和问题 2,您就需要处理您的报告。这可能由 Mongo 中的 MapReduce 函数支持。我对这部分的第一条评论是确保您至少运行 Mongo 2.0。 In that release 10gen sped up MapReduce (我的测试表明它比 1.8 快得多)。除此之外,您还可以通过分片并将读取定向到副本集中的辅助服务器(您正在使用副本集?)来实现进一步的增长。如果这仍然不起作用,请考虑构建您的架构以支持您的报告功能。这使您可以在客户端上使用更多周期来完成工作,而不是加载服务器。但是,在您证明传统方法行不通之前,应该保留这种优化。

我希望文字墙能有所帮助。祝你好运!

关于objective-c - 在 Mac 应用程序和 Web 之间同步 'lot' 小块数据的最佳方法是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9450013/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com