gpt4 book ai didi

php - 用于实时 ajax 的 MongoDB?

转载 作者:可可西里 更新时间:2023-11-01 10:35:50 26 4
gpt4 key购买 nike

大家好!

所以我一直在对这些 NoSQL 数据库、MongoDB、CouchDB 等进行一些挖掘。虽然我仍然不确定实时性的东西,因此我想我会四处询问看看是否有人有任何实践经验。

让我们想想 web 的东西,假设我们有一个非常动态的 super ajaxified webapp,每 5-20 秒请求各种类型的数据,我们的后端是 python 或 php 或除 java 以外的任何东西......在像这样的情况显然 MySQL 或类似的数据库会承受沉重的压力(有很多用户),MongoDB/CouchDB 会毫不费力地运行它并且不需要创建一些 super 复杂的集群/缓存等解决方案吗?

是的,这基本上是我的问题,如果你认为不..那么是的,我知道有几种类型的解决方案,nodeJS/websockets/antigravity/worm-hole super 技术,但我只是对这些 NoSQL 感兴趣事情 atm,更具体地说,如果他们能处理这类事情。

假设我们同时有 5000 个用户,每 5、10 或 20 秒更新各种界面的 ajax 请求。

射击;]

最佳答案

Let's say we have 5000 users at the same time, every 5, 10 or 20 seconds ajax requests that updates various interfaces.

好的,为了正确起见,您是说每秒写入 250 到 1000 次?是的,MongoDB 可以处理。

性能的真正关键在于这些是查询、更新还是插入。

对于查询,Mongo 可能可以处理此负载。这实际上是关于数据大小与内存大小的比率。如果您的服务器具有 1GB RAM 和 150GB 数据,那么您可能不会每秒获得 250 个查询(使用任何数据库技术)。但是在合理的硬件规范下,Mongo 可以在单个 64 位服务器上达到这个速度。

如果您有 5,000 个活跃用户并且不断更新现有记录,那么 Mongo 将非常快(与在单台机器上更新 memcached 相当)。这里的原因很简单,Mongo 可能会将记录保存在内存中。因此,用户将每 5 秒发送一次更新,内存中的对象将被更新。

如果您不断插入 新记录,那么限制实际上是吞吐量之一。当您写入大量新数据时,您也在迫使索引扩展。因此,如果您计划输入 Gigs 的新数据,那么您就有磁盘吞吐量饱和的风险,您需要进行分片。

因此,根据您的问题,您似乎主要是在查询/更新。您将写入新记录,但不是每秒 1000 条新记录。如果是这种情况,那么 MongoDB 可能适合您。它肯定会解决很多缓存问题。

关于php - 用于实时 ajax 的 MongoDB?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3798728/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com