- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我正在试验 Python 3.4 的 asyncio 模块。由于没有使用 asyncio 的 MongoDB 生产就绪包,我编写了一个小包装类,在执行程序中执行所有 mongo 查询。这是包装器:
import asyncio
from functools import wraps
from pymongo import MongoClient
class AsyncCollection(object):
def __init__(self, client):
self._client = client
self._loop = asyncio.get_event_loop()
def _async_deco(self, name):
method = getattr(self._client, name)
@wraps(method)
@asyncio.coroutine
def wrapper(*args, **kwargs):
print('starting', name, self._client)
r = yield from self._loop.run_in_executor(None, method, *args, **kwargs)
print('done', name, self._client, r)
return r
return wrapper
def __getattr__(self, name):
return self._async_deco(name)
class AsyncDatabase(object):
def __init__(self, client):
self._client = client
self._collections = {}
def __getitem__(self, col):
return self._collections.setdefault(col, AsyncCollection(self._client[col]))
class AsyncMongoClient(object):
def __init__(self, host, port):
self._client = MongoClient(host, port)
self._loop = asyncio.get_event_loop()
self._databases = {}
def __getitem__(self, db):
return self._databases.setdefault(db, AsyncDatabase(self._client[db]))
我想异步执行插入,这意味着执行它们的协程不想等待执行完成。 asyncio 手册指出 任务在创建时会自动安排执行。当所有任务完成时,事件循环停止。
,所以我构建了这个测试脚本:
from asyncdb import AsyncMongoClient
import asyncio
@asyncio.coroutine
def main():
print("Started")
mongo = AsyncMongoClient("host", 27017)
asyncio.async(mongo['test']['test'].insert({'_id' : 'test'}))
print("Done")
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
当我运行脚本时,我得到以下结果:
Started
Done
starting insert Collection(Database(MongoClient('host', 27017), 'test'), 'test')
应该有一行表示mongo查询已经完成。当我 yield from
这个协程而不是使用 asyncio.async
运行它时,我可以看到那一行。然而,真正奇怪的是,当我使用 asyncio.async
运行这个协程时,测试条目实际上存在于 MongoDB 中,所以尽管它似乎有效,但我不明白为什么不能我看到打印语句表明查询已执行。尽管我使用 run_until_completed
运行事件循环,但它应该等待插入任务完成,即使主协程之前完成也是如此。
最佳答案
asyncio.async(mongo...))
只是安排 mongo 查询。 run_until_complete()
不会等待它。这是使用 asyncio.sleep()
协程显示它的代码示例:
#!/usr/bin/env python3
import asyncio
from contextlib import closing
from timeit import default_timer as timer
@asyncio.coroutine
def sleep_BROKEN(n):
# schedule coroutine; it runs on the next yield
asyncio.async(asyncio.sleep(n))
@asyncio.coroutine
def sleep(n):
yield from asyncio.sleep(n)
@asyncio.coroutine
def double_sleep(n):
f = asyncio.async(asyncio.sleep(n))
yield from asyncio.sleep(n) # the first sleep is also started
yield from f
n = 2
with closing(asyncio.get_event_loop()) as loop:
start = timer()
loop.run_until_complete(sleep_BROKEN(n))
print(timer() - start)
loop.run_until_complete(sleep(n))
print(timer() - start)
loop.run_until_complete(double_sleep(n))
print(timer() - start)
0.0001221800921484828
2.002586881048046
4.005100341048092
输出显示 run_until_complete(sleep_BROKEN(n))
在不到 2 毫秒而不是 2 秒内返回。 run_until_complete(sleep(n))
正常工作:它会在 2 秒内返回。 double_sleep()
显示由 async.async()
调度的协程在 yield from
上运行(两个并发 sleep 是并行的)即,它 sleep 2 秒,而不是 4 秒。如果您在第一个 yield from
之前添加延迟(不允许事件循环运行),那么您会看到 yield from f
没有尽快返回,即 asyncio.async
不运行协程;它只安排它们运行。
关于Python 3.4 asyncio 任务没有完全执行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23180889/
我正在我的一个项目中使用 aiohttp 并想限制每秒发出的请求数。我正在使用 asyncio.Semaphore 来做到这一点。我的挑战是我可能想要增加/减少每秒允许的请求数。 例如: limit
如何混合 async with api.open() as o: ... 和 o = await api.open() 在一个功能中? 自从第一次需要带有 __aenter__ 的对象以来和
有 2 个工作:“wash_clothes”(job1) 和“setup_cleaning_robot”(job2),每个工作需要你 7 和 3 秒,你必须做到世界末日。 这是我的代码: import
我们有一种设置线程名称的方法:thread = threading.Thread(name='Very important thread', target=foo),然后在格式化程序中使用 %(thr
我有一些代码,用于抓取 URL、解析信息,然后使用 SQLAlchemy 将其放入数据库中。我尝试异步执行此操作,同时限制同时请求的最大数量。 这是我的代码: async def get_url(ai
1>Python Asyncio 未使用 asyncio.run_coroutine_threadsafe 运行新的协程。下面是在Mac上进行的代码测试。 ——————————————————————
asyncio.gather和 asyncio.wait似乎有类似的用途:我有一堆我想要执行/等待的异步事情(不一定要在下一个开始之前等待一个完成)。它们使用不同的语法,并且在某些细节上有所不同,但对
我正在尝试使用 asyncio 运行以下程序: import asyncio async def main(): print('Hello') await asyncio.sleep(
我正在尝试在事件循环之外使用协程函数。 (在这种情况下,我想在 Django 中调用一个也可以在事件循环中使用的函数) 如果不使调用函数成为协程,似乎没有办法做到这一点。 我意识到 Django 是为
我有一个假设 asyncio.gather设想: await asyncio.gather( cor1, [cor2, cor3], cor4, ) 我要 cor2和 cor3
我有多个服务器,每个服务器都是 asyncio.start_server 返回的实例。我需要我的 web_server 与 websockets 一起使用,以便能够使用我的 javascript 客户
我正在使用 Python 3 asyncio 框架评估定期执行的不同模式(为简洁起见省略了实际 sleep /延迟),我有两段代码表现不同,我无法解释原因。第一个版本使用 yield from 递归调
从事件线程外部将协程推送到事件线程的 pythonic 方法是什么? 最佳答案 更新信息: 从Python 3.7 高级函数asyncio.create_task(coro)开始was added并且
我有一个大型 (1M) 数据库结果集,我想为其每一行调用一个 REST API。 API 可以接受批处理请求,但我不确定如何分割 rows 生成器,以便每个任务处理一个行列表,比如 10。我宁愿不预先
迷失在异步中。 我同时在学习Kivy和asyncio,卡在了解决运行Kivy和运行asyncio循环的问题上,无论怎么转,都是阻塞调用,需要顺序执行(好吧,我希望我是错的),例如 loop = asy
我有这个 3.6 异步代码: async def send(command,userPath,token): async with websockets.connect('wss://127.
首先,我需要警告你:我是 asyncio 的新手,而且我是 我马上警告你,我是 asyncio 的新手,我很难想象引擎盖下的库里有什么。 这是我的代码: import asyncio semaphor
我有一个asyncio.PriorityQueue,用作网络爬虫的URL队列,当我调用url_queue.get时,得分最低的URL首先从队列中删除()。当队列达到 maxsize 项时,默认行为是阻
探索 Python 3.4.0 的 asyncio 模块,我试图创建一个类,其中包含从类外部的 event_loop 调用的 asyncio.coroutine 方法。 我的工作代码如下。 impor
我有一个可能是无用的问题,但尽管如此,我还是觉得我错过了一些对于理解 asyncio 的工作方式可能很重要的东西。 我刚刚开始熟悉 asyncio 并编写了这段非常基本的代码: import asyn
我是一名优秀的程序员,十分优秀!