gpt4 book ai didi

google-cloud-datastore - "Error: could not handle the request"使用 Google Cloud Functions 发送过大的响应时

转载 作者:行者123 更新时间:2023-12-04 01:35:16 24 4
gpt4 key购买 nike

这里有一点上下文:目前,我们正在使用 Google Cloud Datastore 在我们的应用程序中存储许多不同类型的记录,并且我们正在使用 Google Cloud Functions 从各个类型的类型中返回所有记录。我们通过 HTTP 请求执行此操作,因此这是一个 HTTP 触发器。就在昨晚,我们遇到了一个问题,当我们所有的 field 类型记录的总大小太大时,我们的端点突然失败,并显示“错误:无法处理请求”。

对此我们的包装器相当简单:我们的端点接受种类的类型作为路径参数,运行带有过滤器的数据存储查询以过滤所有该种类的记录,然后使用 res.send发送查询结果。

起初,这似乎可能是事务大小超出谷歌提供的限制的问题。但是,当我添加更多日志记录时,我确定该查询确实正确地找到了所有字段记录而没有发生意外;但是,无论出于何种原因,它在 res.status(200).send(resultsArr); 的最后一步中断了。

这似乎与发送回的响应的大小有关,因为降低所有实体的总大小是成功的。在这一点上我唯一能想到的是 res.send 不会发回这种大小的响应,但是当谷歌搜索时我找不到任何关于这些限制的信息。

有没有人遇到过这样的事情?有谁知道对此有什么好的预期解决方案?我知道我们可以对端点进行多次调用但有限制,但我担心这根本是个问题。遇到查询大小的限制是一回事,但我没想到 res.send 本身会在这里限制我们。

(已编辑:是的,响应超过 10MB。如果您需要帮助确定这是否是您的问题,您可以使用以下内容进行验证:

let size = Buffer.from(JSON.stringify(resultsArr)).length;
console.log('尝试发送大小的响应:', size);
)

最佳答案

HTTP 触发器的传入和传出负载限制当前设置为 10MB,如 documented here .

关于google-cloud-datastore - "Error: could not handle the request"使用 Google Cloud Functions 发送过大的响应时,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50159350/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com