- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我正在尝试构建一个自定义过滤器,它只处理每个标识符每 M 个时间单位(比如 1 秒)的 N 个请求(比如 100 个)。所有大于 N 的请求都将被拒绝或忽略。 Request 是一个包含标识符、时间戳和其他卫星数据的对象(过滤器不应处理卫星数据)。
首先想到的是有一个 ConcurrentHashMap[String, AtomicInteger] ,它会有每个标识符的请求数,但后来我无法理解使用哪个数据结构来跟踪每秒的这些计数,这个数据结构也应该是能够清理,因为它很快就会增长,我们不需要维护过去的数据。
这也意味着一个可能的解决方案将具有一种数据结构,该结构能够仅存储时间戳之间的增量,并确保每个标识符在 M 个时间单位内不超过 N 个请求。
这听起来像是一个速率限制器,可能有可用的标准库或选项,但我想了解如何构建它因此寻找一些指针而不是直接代码解决方案。
最佳答案
这是一种方法。
以 (time_rounded_off, count)
形式存储值.只有在 time_rounded_off = current_time_rounded_off
时才处理请求和 count < max_count
.
当舍入时间增加时,计数器将重置为 0,您将重新开始处理。
这种设计有利于保持业务规则,但如果在您的基础架构上处理突然爆发的请求过于困难,则效果不佳。为此,我建议您保留一个 exponential moving average您正在处理多少请求/秒。只要下降到足够低,您就可以接受另一个请求。
使用这种方法,您的值将是 (timestamp, average)
形式的对.现在更新它的过程就是将时间戳更新为当前时间戳,然后用平均值乘以一个衰减因子(取决于时间戳的不同)。如果您收到请求的速度快于它处理的速度,结果将是以正确的近似速率对它们进行采样。
您现在可以使用两个参数,衰减率和平均值。您可以为特定速率选择是指每小时 360,000 次、每分钟 6000 次、每秒 100 次还是每 0.1 秒 10 次。它们之间的区别在于您必须一次处理的“突发”的潜在大小。
关于java - 构建自定义过滤器以在每个标识符的 M 个时间单位内处理 N 个请求,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51862445/
我看到以下宏 here . static const char LogTable256[256] = { #define LT(n) n, n, n, n, n, n, n, n, n, n, n,
这个问题不太可能帮助任何 future 的访问者;它只与一个小的地理区域、一个特定的时间点或一个非常狭窄的情况有关,这些情况并不普遍适用于互联网的全局受众。为了帮助使这个问题更广泛地适用,visit
所以我得到了这个算法我需要计算它的时间复杂度 这样的 for i=1 to n do k=i while (k<=n) do FLIP(A[k]) k
n 的 n 次方(即 n^n)是多项式吗? T(n) = 2T(n/2) + n^n 可以用master方法求解吗? 最佳答案 它不仅不是多项式,而且比阶乘还差。 O(n^n) 支配 O(n!)。同样
我正在研究一种算法,它可以在带有变音符号的字符(tilde、circumflex、caret、umlaut、caron)及其“简单”字符之间进行映射。 例如: ń ǹ ň ñ ṅ ņ ṇ
嗯..我从昨天开始学习APL。我正在观看 YouTube 视频,从基础开始学习各种符号,我正在使用 NARS2000。 我想要的是打印斐波那契数列。我知道有好几种代码,但是因为我没有研究过高深的东西,
已关闭。这个问题是 off-topic 。目前不接受答案。 想要改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 已关闭12 年前。 Improve th
谁能帮我从 N * N * N → N 中找到一个双射数学函数,它接受三个参数 x、y 和 z 并返回数字 n? 我想知道函数 f 及其反函数 f',如果我有 n,我将能够通过应用 f'(n) 来
场景: 用户可以在字符串格式的方程式中输入任意数量的括号对。但是,我需要检查以确保所有括号 ( 或 ) 都有一个相邻的乘数符号 *。因此 3( 应该是 3*( 和 )3 应该是 )*3。 我需要将所有
在 Java 中,表达式: n+++n 似乎评估为等同于: n++ + n 尽管 +n 是一个有效的一元运算符,其优先级高于 n + n 中的算术 + 运算符。因此编译器似乎假设运算符不能是一元运算符
当我阅读 this 问题我记得有人曾经告诉我(很多年前),从汇编程序的角度来看,这两个操作非常不同: n = 0; n = n - n; 这是真的吗?如果是,为什么会这样? 编辑: 正如一些回复所指出
我正在尝试在reveal.js 中加载外部markdown 文件,该文件已编写为遵守数据分隔符语法: You can write your content as a separate file and
我试图弄清楚如何使用 Javascript 生成一个随机 11 个字符串,该字符串需要特定的字母/数字序列,以及位置。 ----------------------------------------
我最近偶然发现了一个资源,其中 2T(n/2) + n/log n 类型 的递归被 MM 宣布为无法解决。 直到今天,当另一种资源被证明是矛盾的(在某种意义上)时,我才接受它作为引理。 根据资源(下面
关闭。此题需要details or clarity 。目前不接受答案。 想要改进这个问题吗?通过 editing this post 添加详细信息并澄清问题. 已关闭 8 年前。 Improve th
我完成的一个代码遵循这个模式: for (i = 0; i < N; i++){ // O(N) //do some processing... } sort(array, array + N
有没有办法证明 f(n) + g(n) = theta(n^2) 还是不可能?假设 f(n) = theta(n^2) & g(n) = O(n^2) 我尝试了以下方法:f(n) = O(n^2) &
所以我目前正在尝试计算我拥有的一些数据的 Pearson R 和 p 值。这是通过以下代码完成的: import numpy as np from scipy.stats import pearson
ltree 列的默认排序为文本。示例:我的表 id、parentid 和 wbs 中有 3 列。 ltree 列 - wbs 将 1.1.12, 1.1.1, 1.1.2 存储在不同的行中。按 wbs
我的目标是编写一个程序来计算在 python 中表示数字所需的位数,如果我选择 number = -1 或任何负数,程序不会终止,这是我的代码: number = -1 cnt = 0 while(n
我是一名优秀的程序员,十分优秀!