- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一种情况需要在使用 grpc-go 时设置 max_concurrent_streams
选项。所以我读了这个RFC7540 document .
我阅读了这篇文章并进行了搜索,但我有一个问题仍未得到解答。
最佳答案
HTTP/2 的设计,如果你原谅我的简化,主要是为了改善浏览体验。
网页变得越来越丰富,HTTP/1.1 迫使许多“技巧”来克服一个页面可以引用同一域中的数十个其他资源这一事实——想想 *.css、*.js、*。等.png下载index.html
,然后浏览器必须再发出10-60次请求来下载index.html
引用的依赖资源。
考虑到这一点,HTTP/2 的 max_concurrent_streams
比 6-8(HTTP/1.1 可以实现的并行度)大得多,但显然不需要是 2^32-1。值 100 是当前网页的最大值的一个很好的近似值。
目前尚不清楚您是否“必须设置 max_concurrent_streams
”只是因为它是必需的,但该值并不重要,只要它是一个合理的值并且您想更好地理解它即可。
或者,如果您必须将其设置为特定值,甚至可能是动态设置,因为这是您的应用程序所需要的,所以该值确实很重要。
无论哪种情况,2^32-1 都不是一个好的值,因为它很容易成为恶意客户端的攻击向量。他们将打开一个连接,看到您的服务器允许 2^32-1 个流,并强制创建这么多流,可能会耗尽服务器的内存。如果一个连接不足以炸毁服务器,他们将打开更多连接,并且每个连接 2^32-1 个流。不好。
此外,由于 HTTP/2 是一种多路复用协议(protocol),因此需要流量控制。HTTP/2 定义了连接流量控制窗口和流流量控制窗口。流流控窗口接入连接流控窗口。
这意味着较小的 max_concurrent_streams
值允许每个流使用连接流控制窗口的较大部分进行下载(从服务器到客户端)。对于每个客户端并发下载不多的文件服务器来说,这可能是一个很好的配置。
相反,较大的 max_concurrent_streams
值允许更多的并发请求,但每个流的流量控制窗口更小。对于网页服务器来说,这可能是一个很好的配置,其中应该同时提供许多资源,但它们可能相当小。
gRPC 作为一个通用的 RPC 协议(protocol),通常不需要像网页那样同时请求许多依赖的小资源;因此,gRPC 服务器的 max_concurrent_streams
值通常由特定于应用程序的因素决定。
总而言之,没有确切的答案:您必须测量并查看,或者您必须知道您的应用程序是如何工作的。
如果您知道单个客户端永远不会发出并发 gRPC 请求,那么您可以保留默认值 100,或者相反将其减少为 1。该连接中唯一存在的流将能够进入整个连接流量控制窗口(除非流配置了较小的每流流量控制窗口)。
如果您知道单个客户端将发出并发 gRPC 请求,您将必须知道或测量将交换多少数据以及多少数据,并为此进行调整。
我会从默认的一切开始,监控服务器并查看它是如何工作的。可能默认值就很好,您无需执行任何操作。
关于grpc - http2 的适当 MAX_CONCURRENT_STREAMS 值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/68781943/
关于 gRPC Health Checking ,如果 gRPC 服务托管在与其他也需要健康检查的 HTTP 服务相同的端口上,则对 grpc.health.v1.Health.Check 的响应应该
我的项目是读取服务器中的图像,进行一些处理,然后将整个图像传递给客户端。客户端占用图像并进行更多处理,并将一些输出值返回给服务器。服务器和客户端之间使用的图像大小为 [640x480x3]。 以下是我
gRPC 基于 HTTP/2,它(假设)被浏览器广泛支持。因此,我觉得从浏览器使用 gRPC 应该没有问题。 但是,很明显存在问题。协议(protocol),grpc web , 是不同的,因为“由于
关于服务器端代码的幂等性的问题,或者说它的必要性。对于一般的 gRPC,或者专门针对 java 实现。 当我们从客户端发送消息一次时,是否有可能由我们的服务实现处理两次?也许这与服务似乎不可用时的重试
假设我想使用 Grpc Server 流式传输或双向流式传输。 考虑到它在底层使用 http/2,流可以持续多长时间是否有任何限制? 如果是的话,它可以用来代替消息总线,这样流就可以打开并存活多久?
使用 gRPC 向客户端发送有关错误的更多详细信息的模式是什么? 例如,假设我有一个用于注册用户的表单,用于发送消息 message RegisterUser { string email = 1
我是 GRPC 的新手。我想知道当 GRPC 客户端启动一个请求时,服务器是否启动一个新线程来处理。 最佳答案 最多可能有一个 Runnable加入 Server's executor用于申请处理。每
我想传输一个 int64 数组。 我查了一下如何使用它。在我的原型(prototype)文件中,我需要一个流: service myService { rpc GetValues(myRequ
通常,客户端可以通过以下方式取消 gRPC 调用: (requestObserver as ClientCallStreamObserver) .cancel("Cancelled", nul
在 100Gb 网络上,我创建了一个服务器来监听 4 个端口,grpc 客户端可以达到 3GB+/s 的吞吐量。然而,当服务器监听一个端口时,grpc 客户端达到了 1GB/s 的吞吐量,即使我设置了
我想验证调用并可能在服务器拦截器中回答错误。有没有办法做到这一点?如果是,我该如何实现? 最佳答案 简单地从拦截器响应 RPC,可能通过调用 close() ,不要调用next .您仍然需要返回一个监
我有一个 GRPC API,经过重构,一些包被重命名。这包括我们定义 API 的原型(prototype)文件之一中的 package 声明。像这样的: package foo; service Ba
我想在 Ubuntu 上使用源代码中的所有子模块编译 grpc,并将其安装到/usr/local 以外的指定位置 为提供的 Makefile 指定此位置的方法是什么(类似于配置脚本的 --prefix
我不断在控制台中收到此警告: DeprecationWarning: grpc.load: Use the @grpc/proto-loader module with grpc.loadPackag
上下文 我正在尝试使用 Google 的 Cloud Natural Language API。我有我的服务帐户 key JSON 文件,并且正在尝试编写一个简单的 .NET Core 应用程序(更具
用户在测试中遇到了此崩溃。我的第一个猜测是这与内存有关,但除此之外我没有什么可做的。更深入地研究代码,我认为这可能是主线程问题,但看起来监听器在后台线程上被删除,所以我怀疑这就是原因。 我认为在应用程
我正在编写一个 grpc 服务并在 Kubernetes (https://github.com/grpc-ecosystem/grpc-health-probe) 上使用 gRPC 健康检查。在我的
如何使用 gRPC-java 实现检测网络错误并尝试从中恢复的策略?我知道 UNAVAILABLE 状态可能意味着网络错误,但这并没有告诉我它是哪种网络错误 - 并且 UNAVAILABLE 也可以从
假设我们有一个 Search-Service service Search { rpc Search (SearchRequest) returns (SearchReply) {} } mess
如果浏览器支持http/2,为什么 grpc-web 需要 envoy 代理? 不支持 http/2 的旧浏览器是否只需要它? 最佳答案 回答于 https://github.com/grpc/grp
我是一名优秀的程序员,十分优秀!