- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我问这个问题是因为我正在使用Got来复用I/O,它使用了epollwait
。
当套接字准备就绪时,goroutine将被唤醒并开始以非阻塞模式读取套接字。如果在将数据从内核复制到用户的过程中read
系统调用仍然被阻止,那么我认为连接gorouine的内核线程也将进入休眠状态。
我不确定,如果我错了,希望有人可以帮助纠正我。
最佳答案
我无法完全解析您所写的内容。
我将尝试做出一个纯粹的猜测,并且您可能会忽略一个事实,即进入非阻塞模式的套接字上的write(2)
和read(2)
系统调用(以及它们类似的系统调用,例如send(2)
和recv(2)
)可以免费使用(并且分别返回)的数据少于请求的数据。
换句话说,在非阻塞套接字上的write(2)
调用被告知要写入1兆字节的数据,将消耗掉与关联的内核缓冲区中当前大小相同的数据,并立即返回,表示仅消耗了同样多的数据。下次直接调用write(2)
可能会返回EWOULDBLOCK
。read(2)
调用也是如此:如果向它传递一个足以容纳1兆字节数据的缓冲区,并告诉它读取该字节数,则该调用只会耗尽内核缓冲区的内容并立即返回,从而表明实际上复制了很多数据。下次直接调用read(2)
可能会返回EWOULDBLOCK
。
因此,任何将数据获取或放入套接字的尝试几乎都会立即成功:在将数据铲入内核缓冲区和用户空间之间之后,或者立即使用EAGAIN
返回代码。
当然,在执行此类syscall的过程中,可能存在OS线程被挂起的可能性,但这不算作“阻塞syscall”。
响应OP的以下评论,将更新为原始答案:
<…>
This is what I see in book "UNIX Network Programming" (Volume 1, 3rd), chapter 6.2:A synchronous I/O operation causes the requesting process to be blocked until that I/O operation completes. Using these definitions, the first four I/O models—blocking, nonblocking, I/O multiplexing, and signal-driven I/O—are all synchronous because the actual I/O operation (recvfrom) blocks the process.
它使用“块”来描述非阻塞I/O操作。这让我感到困惑。
我仍然不理解为什么如果实际上没有阻止该过程,那么本书为什么使用“阻止该过程”。
我只能猜测,这本书的作者打算强调指出,自从进入syscall并从其返回之前,该过程确实被阻塞。对非阻塞套接字的读写会阻塞以在内核和用户空间之间传输数据(如果可用)。我们口语地说这不会阻止,因为我们的意思是“它不会阻止等待并在不确定的时间内不执行任何操作”。
该书的作者可能将此与所谓的异步I/O(在Windows™上称为“重叠”)进行对比,在异步I/O中,您基本上为内核提供了一个用于/用于数据的缓冲区,并要求它完全与您的内核并行处理。代码-从某种意义上讲,相关的syscall立即返回,并且I/O在后台执行(关于您的用户空间代码)。
据我所知,Go在它所支持的平台上都没有使用内核的异步I/O工具。对于Linux及其现代 there的发展,您可能会喜欢io_uring
subsystem。
哦,还有一点。这本书可能(至少到那时为止是在叙述中)正在讨论一种简化的“经典”方案,其中没有进程内线程,并且并发的唯一单元是进程(具有单个执行线程)。在此方案中,任何系统调用显然都会阻塞整个过程。相比之下,Go仅在支持线程的内核上工作,因此在Go程序中,系统调用永远不会阻塞整个进程,而只会阻塞被调用的线程。
让我再一次尝试解释问题,正如我所知,OP指出了这一点。
服务多个客户端请求的问题并不是新问题,它最明显的第一条陈述就是 "The C10k problem"。
为了快速重述,在其管理的套接字上具有阻塞操作的单线程服务器实际上只能一次处理一个客户端。
为了解决这个问题,有两种简单的方法:
派生服务器进程的副本以处理每个传入的客户端连接。 在支持线程的操作系统上,在同一进程内派生一个新线程来处理每个传入的客户端。
它们各有利弊,但都在资源使用方面很糟糕,而且(更重要的是)它们不能很好地与大多数客户端在处理方面执行的I/O速率和带宽相对较低的事实打交道。典型服务器上可用的资源。
换句话说,当与客户端进行典型的TCP/IP交换时,服务线程大部分时间都处于客户端套接字上的write(2)
和read(2)
调用中。
这就是大多数人在谈论套接字上的“阻塞操作”时的意思:如果套接字正在阻塞,并且对该套接字的操作将一直阻塞直到可以实际执行,并且始发线程将进入休眠状态并不确定的数量。时间。
另一个需要注意的重要事项是,当套接字准备就绪时,与唤醒之间的 sleep 时间相比,完成的工作量通常很小。
胎面 sleep 时,其资源(例如内存)被有效地浪费了,因为它们不能用于执行任何其他工作。
输入“轮询”。它注意到网络套接字的就绪点相对稀少且介于两者之间,从而解决了资源浪费的问题,因此,有很多这样的套接字由单个线程提供服务是有意义的:它允许将线程保持为在理论上尽可能地忙,并且还允许在需要时进行扩展:如果单个线程无法处理数据流,请添加另一个线程,依此类推。
这种方法肯定很酷,但是它有一个缺点:读取和写入数据的代码必须重新编写以使用回调样式,而不是原始的普通顺序样式。用回调编写是很难的:您通常必须实现复杂的缓冲区管理和状态机来处理此问题。
Go运行时通过为其执行流单元添加另一层调度来解决此问题,即goroutines:对于goroutine,套接字上的操作始终处于阻塞状态,但是当goroutine即将在套接字上进行阻塞时,这仅通过挂起进行透明处理goroutine本身-直到请求的操作将能够继续进行-并使用goroutine正在运行的线程来执行其他工作¹。
这样可以兼具两种方法的优点:程序员可以编写经典的无脑顺序无回调的网络代码,但是用于处理网络请求的线程已被充分利用²。
至于最初的阻塞问题,当套接字上的数据传输发生时,goroutine及其运行的线程确实都被阻塞了,但是由于发生的是内核与用户空间缓冲区之间的数据交换,因此延迟是在大多数情况下,它很小,并且与经典的“轮询”情况没有什么不同。
请注意,在Go中执行系统调用(包括在非轮询描述符上进行I/O)(直到发布并包括Go 1.14)确实会阻止调用goroutine及其运行的线程,但处理方式与pollable有所不同描述符:当一个特殊的监视线程注意到在某个系统调用中花费的goroutine超过一定时间(20 µs,IIRC)时,运行时就会从下方拉出所谓的“处理器”(在OS线程上运行goroutine的运行时事物) gorotuine并尝试使其在另一个OS线程上运行另一个goroutine;如果有一个想运行的goroutine,但没有空闲的OS线程,则Go运行时会创建另一个。
因此,“正常”阻塞I/O仍然在Go中处于两种阻塞状态:它同时阻塞goroutine和OS线程,但是Go调度程序可确保整个程序仍然能够取得进展。
对于使用内核提供的真正异步I/O来说,这可以说是一个完美的案例,但是还不存在。
¹有关更多信息,请参见 this classic essay。
²Go运行时肯定不是第一个倡导此想法的人。例如,看看 the State Threads library(以及最近的libtask
),它们在普通C语言中实现了相同的方法。 ST库中有出色的文档,可以解释这个想法。
关于linux - 在将数据从内核复制到用户期间,非阻塞I/O是否会进入休眠状态?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60788891/
在使用 requests 库中的状态代码时,我遇到了一些奇怪的事情。每个 HTTP 状态代码都有一个常量,有些具有别名(例如,包括 200 的复选标记): url = 'https://httpbin
这是我得到的代码,但我不知道这两行是什么意思: o[arr[i]] = o[arr[i]] || {}; o = o[arr[i]]; 完整代码: var GLOBAL={}; GLOBAL.name
所以这个问题的答案What is the difference between Θ(n) and O(n)? 指出“基本上,当我们说算法是 O(n) 时,它也是 O(n2)、O(n1000000)、O
这是一个快速的想法;有人会说 O(∞) 实际上是 O(1) 吗? 我的意思是它不依赖于输入大小? 所以在某种程度上它是恒定的,尽管它是无限的。 或者是唯一“正确”的表达方式 O(∞)? 最佳答案 无穷
这是真的: log(A) + log(B) = log(A * B) [0] 这也是真的吗? O(log(A)) + O(log(B)) = O(log(A * B)) [1] 据我了解 O(f
我正在解决面试练习的问题,但我似乎无法找出以下问题的时间和空间复杂度的答案: Given two sorted Linked Lists, merge them into a third list i
我了解 Big-Oh 表示法。但是我该如何解释 O(O(f(n))) 是什么意思呢?是指增长率的增长率吗? 最佳答案 x = O(n)基本上意味着 x <= kn对于一些常量 k . 因此 x = O
我正在编写一个函数,该函数需要一个对象和一个投影来了解它必须在哪个字段上工作。 我想知道是否应该使用这样的字符串: const o = { a: 'Hello There' }; funct
直觉上,我认为这三个表达式是等价的。 例如,如果一个算法在 O(nlogn) + O(n) 或 O(nlogn + n) 中运行(我很困惑),我可以假设这是一个O(nlogn) 算法? 什么是真相?
根据 O'Reilly 的 Python in a Nutshell 中的 Alex Martelli,复杂度类 O(n) + O(n) = O(n)。所以我相信。但是我很困惑。他解释说:“N 的两个
O(n^2)有什么区别和 O(n.log(n)) ? 最佳答案 n^2 的复杂性增长得更快。 关于big-o - 大 O 符号 : differences between O(n^2) and O(n
每当我收到来自 MS outlook 的电子邮件时,我都会收到此标记 & nbsp ; (没有空格)哪个显示为?在 <>. 当我将其更改为 ISO-8859-1 时,浏览器页面字符集编码为 UTF-8
我很难理解 Algorithms by S. Dasgupta, C.H. Papadimitriou, and U.V. Vazirani - page 24 中的以下陈述它们将 O(n) 的总和表
我在面试蛋糕上练习了一些问题,并在问题 2给出的解决方案使用两个单独的 for 循环(非嵌套),解决方案提供者声称他/她在 O(n) 时间内解决了它。据我了解,这将是 O(2n) 时间。是我想错了吗,
关于 Java 语法的幼稚问题。什么 T accept(ObjectVisitorEx visitor); 是什么意思? C# 的等价物是什么? 最佳答案 在 C# 中它可能是: O Accept(
假设我有一个长度为 n 的数组,我使用时间为 nlogn 的排序算法对它进行了排序。得到这个排序后的数组后,我遍历它以找到任何具有线性时间的重复元素。我的理解是,由于操作是分开发生的,所以时间是 O(
总和 O(1)+O(2)+ .... +O(n) 的计算结果是什么? 我在某处看到它的解决方案: O(n(n+1) / 2) = O(n^2) 但我对此并不满意,因为 O(1) = O(2) = co
这个问题在这里已经有了答案: 11 年前关闭。 Possible Duplicate: Plain english explanation of Big O 我想这可能是类里面教的东西,但作为一个自学
假设我有两种算法: for (int i = 0; i 2)更长的时间给定的一些n - 其中n这种情况的发生实际上取决于所涉及的算法 - 对于您的具体示例, n 2)分别时间,您可能会看到: Θ(n)
这个问题在这里已经有了答案: Example of a factorial time algorithm O( n! ) (4 个回答) 6年前关闭。 我见过表示为 O(X!) 的 big-o 示例但
我是一名优秀的程序员,十分优秀!