gpt4 book ai didi

python - 生成大文件并发送

转载 作者:太空宇宙 更新时间:2023-11-03 12:46:52 25 4
gpt4 key购买 nike

我有一个相当大的 .csv 文件(最多 100 万行),我想在浏览器请求时生成并发送它。

我目前的代码是(除了我实际上没有生成相同的数据):

class CSVHandler(tornado.web.RequestHandler): 
def get(self):
self.set_header('Content-Type','text/csv')
self.set_header('content-Disposition','attachement; filename=dump.csv')
self.write('lineNumber,measure\r\n') # File header
for line in range(0,1000000):
self.write(','.join([str(line),random.random()])+'\r\n') # mock data

app = tornado.web.Application([(r"/csv",csvHandler)])
app.listen(8080)

我用上面的方法遇到的问题是:

  • Web 浏览器不会直接开始下载已发送的 block 。它在网络服务器似乎准备好全部内容时挂起。
  • Web 服务器在处理此请求时被阻塞并导致其他客户端挂起。

最佳答案

默认情况下,所有数据都缓存在内存中,直到请求结束,以便在发生异常时可以将其替换为错误页面。要增量发送响应,您的处理程序必须是异步的(因此它可以与响应的写入和 IOLoop 上的其他请求交错)并使用 RequestHandler.flush()方法。

请注意,“异步”与“使用 @tornado.web.asynchronous 装饰器”不同;在这种情况下,我建议使用 @tornado.gen.coroutine而不是 @asynchronous .这使您可以简单地使用 yield每次冲洗运算符(operator):

class CSVHandler(tornado.web.RequestHandler): 
@tornado.gen.coroutine
def get(self):
self.set_header('Content-Type','text/csv')
self.set_header('content-Disposition','attachment; filename=dump.csv')
self.write('lineNumber,measure\r\n') # File header
for line in range(0,1000000):
self.write(','.join([str(line),random.random()])+'\r\n') # mock data
yield self.flush()

self.flush()开始将数据写入网络的过程,yield等待数据到达内核。这让其他处理程序可以运行,还有助于管理内存消耗(通过限制您可以获得比客户端下载速度快多少)。在 CSV 文件的每一行之后刷新有点昂贵,因此您可能希望仅在每 100 或 1000 行之后刷新。

请注意,如果下载开始后出现异常,则无法向客户端显示错误页面;您只能中途切断下载。尝试验证请求并在第一次调用 flush() 之前执行所有可能失败的操作。

关于python - 生成大文件并发送,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31050029/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com