gpt4 book ai didi

google-cloud-platform - Google Cloud Workflows - 在循环中执行 HTTP 请求时出现 "ResourceLimitError"

转载 作者:行者123 更新时间:2023-12-04 08:01:31 30 4
gpt4 key购买 nike

我们正在使用 GCP 工作流通过 http.post 每隔 n 秒执行一些 API 调用以检查状态。称呼。
一切都很好,直到最近我们所有的工作流程都开始因内部错误而失败:

{"message":"ResourceLimitError: Memory usage limit exceeded","tags":["ResourceLimitError"]}
我发现,当我们使用 GET使用查询参数,它的失败比 POST 的失败发生得晚一点。与 body 。
这是测试工作流程:
main:
steps:
- init:
assign:
- i: 0
- body:
foo: 'thisismyhorsemyhorseisamazing'
- doRequest:
call: http.request
args:
url: https://{my-location-and-project-id}.cloudfunctions.net/workflow-test
method: GET
query: ${body}
result: res
- sleepForOneSecond:
call: sys.sleep
args:
seconds: 1
- logCounter:
call: sys.log
args:
text: ${"Iteration - " + string(i)}
severity: INFO
- increaseCounter:
assign:
- i: ${i + 1}
- checkIfFinished:
switch:
- condition: ${i < 500}
next: doRequest
next: returnOutput
- returnOutput:
return: ${res.body}
它最多可以使用 GET 执行 37 个请求,使用 POST 最多可以执行 32 个请求,然后执行会因错误而停止。而且这个数字不会改变。
作为引用,POST 和 GET 上的 Firebase 函数返回 200 和下一个 JSON:
{
"bar": "thisismyhorsemyhorseisamazing",
"fyz": [],
}
任何想法那里出了什么问题?我认为那里没有超过 64Kb 的变量配额。它不应该被计算为所有作业的总和,不是吗?

最佳答案

这看起来像是产品的问题,我发现了 Google tracker , 报告了这个问题。
最好继续使用公共(public)问题跟踪器。

关于google-cloud-platform - Google Cloud Workflows - 在循环中执行 HTTP 请求时出现 "ResourceLimitError",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/66445436/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com