gpt4 book ai didi

python - 使用 dogpile 根据修改时间缓存下载的文件

转载 作者:太空狗 更新时间:2023-10-30 00:19:31 26 4
gpt4 key购买 nike

我正在编写一个下载大文件(~150MB)并将数据解析为更有用的文本格式文件的程序。下载过程,尤其是解析过程很慢(总共约 20 分钟),所以我想缓存结果。

下载的结果是一堆文件,解析的结果是单个文件,所以我可以手动检查这些文件是否存在,如果存在,查看修改时间;但是,由于我已经在代码的其他地方使用带有 redis 后端的 dogpile 进行 Web 服务调用,我想知道是否可以将 dogpile 用于此目的?

所以我的问题是:是否可以使用 dogpile 根据文件的修改时间来缓存文件?

最佳答案

为什么你不想把程序分成几个部分:

  • 下载者

  • 解析器和保存器

  • 有成果的 worker

您可以使用缓存变量来存储您需要的值,您将在文件更新时更新该值。

   import os
import threading
_lock_services=threading.Lock()
tmp_file="/tmp/txt.json"
update_time_sec=3300
with _lock_services:
# if file was created more the 50min ago
# here you can check if file was updated and update your cache variable
if os.path.getctime(tmp_file) < (time.time() - update_time_sec):
os.system("%s >%s" %("echo '{}'",tmp_file))

with open(tmp_file,"r") as json_data:
cache_variable = json.load(json_data)

关于python - 使用 dogpile 根据修改时间缓存下载的文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26733316/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com