- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
来自 doc :
write(data)
Write data to the stream.
This method is not subject to flow control. Calls to write() should be followed by drain().coroutine drain()
Wait until it is appropriate to resume writing to the stream. Example:
writer.write(data)
await writer.drain()
据我了解,
write
时都需要调用drain
。write
会阻塞循环线程那write为什么不是自动调用的协程呢?为什么一个调用 write
而不必耗尽?我可以想到两种情况
编写
并关闭
第一个是特例,我想我们可以有不同的 API。缓冲应该在写函数内部处理,应用程序不应该关心。
让我以不同的方式提出这个问题。这样做的缺点是什么? python3.8版本有效吗?
async def awrite(writer, data):
writer.write(data)
await writer.drain()
注意:drain
文档明确说明如下:
When there is nothing to wait for, the
drain()
returns immediately.
再次阅读答案和链接,我认为这些功能是这样工作的。 注意:检查已接受的答案以获得更准确的版本。
def write(data):
remaining = socket.try_write(data)
if remaining:
_pendingbuffer.append(remaining) # Buffer will keep growing if other side is slow and we have a lot of data
async def drain():
if len(_pendingbuffer) < BUF_LIMIT:
return
await wait_until_other_side_is_up_to_speed()
assert len(_pendingbuffer) < BUF_LIMIT
async def awrite(writer, data):
writer.write(data)
await writer.drain()
那么什么时候使用什么:
write
awrite
awrite
。如果文件很大,loop.sendfile
如果可用的话会更好。最佳答案
From what I understand, (1) You need to call drain every time write is called. (2) If not I guess, write will block the loop thread
两者都不正确,但混淆是可以理解的。 write()
的工作方式如下:
对 write()
的调用只是将数据存储到缓冲区,将其留给事件循环以在稍后实际写出,而无需程序进一步干预.就应用程序而言,数据在后台写入的速度与另一方接收数据的速度一样快。换句话说,每个 write()
都会安排它的数据使用尽可能多的操作系统级写入来传输,这些写入在相应的文件描述符实际可写时发出。所有这一切都会自动发生,甚至无需等待 drain()
。
write()
不是协程,它绝对从不阻塞事件循环。
第二个属性听起来很方便——你可以在任何需要的地方调用write()
,甚至是从一个不是async def
的函数调用——但它实际上是一个主要的write() 的>缺陷。流 API 公开的写入与接受数据的操作系统完全分离,因此如果您写入数据的速度快于网络对等体读取数据的速度,内部缓冲区将不断增长,您将拥有 memory leak。在你的手上。 drain()
修复了这个问题:如果写入缓冲区变得太大,等待它会暂停协程,并在 os.write()
执行后再次恢复协程后台成功,缓冲区缩小。
您不需要在每次 写入之后等待drain()
,但您确实需要偶尔等待它,通常是在write()
被调用。例如:
while True:
response = await peer1.readline()
peer2.write(b'<response>')
peer2.write(response)
peer2.write(b'</response>')
await peer2.drain()
drain()
如果待处理的未写入数据量很小,则立即返回。如果数据超过高阈值,drain()
将暂停调用协程,直到待处理的未写入数据量降至低阈值以下。暂停将导致协程停止从 peer1
读取数据,这又会导致对等方减慢它向我们发送数据的速率。这种反馈称为背压。
Buffering should be handled inside write function and application should not care.
这几乎就是 write()
现在的工作方式 - 它确实处理缓冲并且让应用程序不关心,无论是好是坏。另见 this answer了解更多信息。
Reading the answer and links again, I think the the functions work like this.
write()
还是比那个聪明一点。它不会尝试只写一次,它实际上会安排数据继续写入,直到没有数据可写为止。即使您从不 await drain()
也会发生这种情况 - 应用程序唯一必须做的就是让事件循环运行足够长的时间以写出所有内容。
一个更正确的write
和drain
伪代码可能是这样的:
class ToyWriter:
def __init__(self):
self._buf = bytearray()
self._empty = asyncio.Event(True)
def write(self, data):
self._buf.extend(data)
loop.add_writer(self._fd, self._do_write)
self._empty.clear()
def _do_write(self):
# Automatically invoked by the event loop when the
# file descriptor is writable, regardless of whether
# anyone calls drain()
while self._buf:
try:
nwritten = os.write(self._fd, self._buf)
except OSError as e:
if e.errno == errno.EWOULDBLOCK:
return # continue once we're writable again
raise
self._buf = self._buf[nwritten:]
self._empty.set()
loop.remove_writer(self._fd, self._do_write)
async def drain(self):
if len(self._buf) > 64*1024:
await self._empty.wait()
实际实现起来比较复杂,因为:
os.write
;drain()
并没有真正等到缓冲区为空,而是直到它到达 low watermark。 ;_do_write
中引发的 EWOULDBLOCK
以外的异常被存储并在 drain()
中重新引发。最后一点是调用 drain()
的另一个很好的理由 - 实际注意到对等点由于写入失败而消失了。
关于python - 为什么要显式调用 asyncio.StreamWriter.drain?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53779956/
我正在处理一组标记为 160 个组的 173k 点。我想通过合并最接近的(到 9 或 10 个组)来减少组/集群的数量。我搜索过 sklearn 或类似的库,但没有成功。 我猜它只是通过 knn 聚类
我有一个扁平数字列表,这些数字逻辑上以 3 为一组,其中每个三元组是 (number, __ignored, flag[0 or 1]),例如: [7,56,1, 8,0,0, 2,0,0, 6,1,
我正在使用 pipenv 来管理我的包。我想编写一个 python 脚本来调用另一个使用不同虚拟环境(VE)的 python 脚本。 如何运行使用 VE1 的 python 脚本 1 并调用另一个 p
假设我有一个文件 script.py 位于 path = "foo/bar/script.py"。我正在寻找一种在 Python 中通过函数 execute_script() 从我的主要 Python
这听起来像是谜语或笑话,但实际上我还没有找到这个问题的答案。 问题到底是什么? 我想运行 2 个脚本。在第一个脚本中,我调用另一个脚本,但我希望它们继续并行,而不是在两个单独的线程中。主要是我不希望第
我有一个带有 python 2.5.5 的软件。我想发送一个命令,该命令将在 python 2.7.5 中启动一个脚本,然后继续执行该脚本。 我试过用 #!python2.7.5 和http://re
我在 python 命令行(使用 python 2.7)中,并尝试运行 Python 脚本。我的操作系统是 Windows 7。我已将我的目录设置为包含我所有脚本的文件夹,使用: os.chdir("
剧透:部分解决(见最后)。 以下是使用 Python 嵌入的代码示例: #include int main(int argc, char** argv) { Py_SetPythonHome
假设我有以下列表,对应于及时的股票价格: prices = [1, 3, 7, 10, 9, 8, 5, 3, 6, 8, 12, 9, 6, 10, 13, 8, 4, 11] 我想确定以下总体上最
所以我试图在选择某个单选按钮时更改此框架的背景。 我的框架位于一个类中,并且单选按钮的功能位于该类之外。 (这样我就可以在所有其他框架上调用它们。) 问题是每当我选择单选按钮时都会出现以下错误: co
我正在尝试将字符串与 python 中的正则表达式进行比较,如下所示, #!/usr/bin/env python3 import re str1 = "Expecting property name
考虑以下原型(prototype) Boost.Python 模块,该模块从单独的 C++ 头文件中引入类“D”。 /* file: a/b.cpp */ BOOST_PYTHON_MODULE(c)
如何编写一个程序来“识别函数调用的行号?” python 检查模块提供了定位行号的选项,但是, def di(): return inspect.currentframe().f_back.f_l
我已经使用 macports 安装了 Python 2.7,并且由于我的 $PATH 变量,这就是我输入 $ python 时得到的变量。然而,virtualenv 默认使用 Python 2.6,除
我只想问如何加快 python 上的 re.search 速度。 我有一个很长的字符串行,长度为 176861(即带有一些符号的字母数字字符),我使用此函数测试了该行以进行研究: def getExe
list1= [u'%app%%General%%Council%', u'%people%', u'%people%%Regional%%Council%%Mandate%', u'%ppp%%Ge
这个问题在这里已经有了答案: Is it Pythonic to use list comprehensions for just side effects? (7 个答案) 关闭 4 个月前。 告
我想用 Python 将两个列表组合成一个列表,方法如下: a = [1,1,1,2,2,2,3,3,3,3] b= ["Sun", "is", "bright", "June","and" ,"Ju
我正在运行带有最新 Boost 发行版 (1.55.0) 的 Mac OS X 10.8.4 (Darwin 12.4.0)。我正在按照说明 here构建包含在我的发行版中的教程 Boost-Pyth
学习 Python,我正在尝试制作一个没有任何第 3 方库的网络抓取工具,这样过程对我来说并没有简化,而且我知道我在做什么。我浏览了一些在线资源,但所有这些都让我对某些事情感到困惑。 html 看起来
我是一名优秀的程序员,十分优秀!