- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
这是我的情况:
A 有一个 Windows 网络共享,我用 mount -t cifs -o username=username,password=password,rw,nounix,iocharset=utf8,file_mode=0777,dir_mode=0777//192.168.1.120 安装/存储/mnt/存储
此文件夹包含数量快速增长的各种大小的文件(几个字节高达 ~20MB)。如果不移动/删除,此目录中的文件数量可能超过 1000 万。
我需要将具有特定名称 (*.fext
) 的文件批处理(在 move_script
中)从该目录移动到另一个目录(当前是目录 /mnt/storage/in_progress
).
然后该脚本启动另一个脚本 (process_script
),该脚本将处理 /mnt/storage/in_progress
中的文件。 process_script
完成后,文件再次被 move_script
移动到另一个子目录 (/mnt/storage/done
)。 move-process-move 继续进行,直到源文件夹 (/mnt/storage
) 不再包含文件。
进程的附加信息:
目前的瓶颈是文件的移动(文件移动速度比目录中创建文件快一点)
if len(os.listdir("/mnt/storage") >= batch_size:
i = 0
for f in os.listdir("/mnt/storage"):
if f.endswith(".fext"):
move("/mnt/storage/+"f","/mnt/storage/in_progress"
i+=1
if i==batch_size:
break
脚本移动/开始处理文件,等待处理完成
/mnt/storage/in_progress
中文件的处理对于 1k-2k 文件的批处理是最快的。
我已尝试让移动的文件数量不断增加。首先移动 1k,然后如果源目录中的文件数量在增长,则移动的文件数量加倍。这会减慢 process_script
中文件的处理速度,但有助于跟上“文件生成器”..
我考虑过在process_script
完成后将子目录/mnt/storage/in_progress
简单重命名为"/mnt/storage/done"+ i_counter
并创建一个新的 /mnt/storage/in_progress
。我假设这会将脚本中的移动时间减半。
我需要加快这个过程,以便跟上文件生成器的步伐。我怎样才能提高这个移动操作的性能?
我愿意接受任何建议,并愿意彻底改变我目前的做法。
编辑:脚本在 debian wheezy 上运行,所以理论上我可以使用发出 mv
的子进程,但我不知道这有多合理。
==========================================
编辑2:我写了一个脚本来测试各种移动方法之间的速度差异。首先创建 1x5GB(dd if=/dev/urandom of=/mnt/storage/source/test.file bs=100M count=50
),然后创建 100x5MB(for i in {1 ..100}; 做 dd if=/dev/urandom of=/mnt/storage/source/file$i bs=1M count=5
) 最后用 10000x5kB (for i in {1. .100000}; 做 dd if=/dev/urandom of=/mnt/storage/source/file$i bs=1k count=5
)
from shutil import move
from os import rename
from datetime import datetime
import subprocess
import os
print("Subprocess mv: for every file in directory..")
s = datetime.now()
for f in os.listdir("/mnt/storage/source/"):
try:
subprocess.call(["mv /mnt/storage/source/"+str(f)+" /mnt/storage/mv"],shell=True)
except Exception as e:
print(str(e))
e = datetime.now()
print("took {}".format(e-s)+"\n")
print("Subprocessmv : directory/*..")
s = datetime.now()
try:
subprocess.call(["mv /mnt/storage/mv/* /mnt/storage/mvf"],shell=True)
except Exception as e:
print(str(e))
e = datetime.now()
print("took {}".format(e-s)+"\n")
print("shutil.move: for every file file in directory..")
s = datetime.now()
for f in os.listdir("/mnt/storage/mvf/"):
try:
move("/mnt/storage/mvf/"+str(f),"/mnt/storage/move")
except Exception as e:
print(str(e))
e = datetime.now()
print("took {}".format(e-s)+"\n")
print("os.rename: for every file in directory..")
s = datetime.now()
for f in os.listdir("/mnt/storage/move/"):
try:
rename("/mnt/storage/move/"+str(f),"/mnt/storage/rename/"+str(f))
except Exception as e:
print(str(e))
e = datetime.now()
print("took {}".format(e-s)+"\n")
if os.path.isdir("/mnt/storage/rename_new"):
rmtree('/mnt/storage/rename_new')
print("os.rename & os.mkdir: rename source dir to destination & make new source dir..")
s = datetime.now()
rename("/mnt/storage/rename/","/mnt/storage/rename_new")
os.mkdir("/mnt/storage/rename/")
e = datetime.now()
print("took {}".format(e-s)+"\n")
这表明没有太大区别。5GB 文件的移动速度非常快,这告诉我通过更改文件表进行的移动是有效的。这是 10000*5kB 文件的结果(感觉结果取决于当前的网络工作负载。例如,第一个 mv
测试耗时 2m 28s,之后相同的文件耗时 3m 22s,也是os.rename()
大多数时候是最快的方法..):
Subprocess mv: for every file in directory..
took 0:02:47.665174
Subprocessmv : directory/*..
took 0:01:40.087872
shutil.move: for every file file in directory..
took 0:01:48.454184
os.rename: for every file in directory..
rename took 0:02:05.597933
os.rename & os.mkdir: rename source dir to destination & make new source dir..
took 0:00:00.005704
最佳答案
您可以使用 glob
模块列出文件来简化代码。但最有可能的限制因素是网络。最有可能的是,这些文件最终会通过网络进行复制,而不是简单地移动。否则这个过程会非常快。
尝试使用 os.rename()
移动文件。它可能不适用于 cifs 文件系统,但值得一试。那应该进行实际的重命名,而不是复制。如果它不起作用,您可能需要以其他方式挂载该文件系统。或者在文件系统所在的机器上运行移动过程。
关于python - 提高在已安装文件夹中移动越来越多的大量文件的性能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26757374/
在这段令人惊叹的视频 ( https://www.youtube.com/watch?v=udix3GZouik ) 中,Alex Blom 谈到了 Ember 在移动世界中的“黑客攻击”。 在 22
我们希望通过我们的应用收集使用情况统计信息。因此,我们希望在服务器端的某个地方跟踪用户操作。 就性能而言,哪个选项更合适: 在 App Engine 请求日志中跟踪用户操作。即为每个用户操作写入一个日
在针对对象集合的 LINQ 查询的幕后究竟发生了什么?它只是语法糖还是发生了其他事情使其更有效的查询? 最佳答案 您是指查询表达式,还是查询在幕后的作用? 查询表达式首先扩展为“普通”C#。例如: v
我正在构建一个简单的照片库应用程序,它在列表框中显示图像。 xaml 是:
对于基于 Web 的企业应用程序,使用“静态 Hashmap 存储对象” 和 apache java 缓存系统有何优缺点?哪一个最有利于性能并减少堆内存问题 例如: Map store=Applica
我想知道在性能方面存储类变量的最佳方式是什么。我的意思是,由于 Children() 函数,存储一个 div id 比查找所有其他类名更好。还是把类名写在变量里比较好? 例如这样: var $inne
我已经阅读了所有这些关于 cassandra 有多快的文章,例如单行读取可能需要大约 5 毫秒。 到目前为止,我不太关心我的网站速度,但是随着网站变得越来越大,一些页面开始需要相当多的查询,例如一个页
最近,我在缓存到内存缓存之前的查询一直需要很长时间才能处理!在这个例子中,它花费了 10 秒。在这种情况下,我要做的就是获得 10 个最近的点击。 我感觉它加载了所有 125,592 行然后只返回 1
我找了几篇文章(包括SA中的一些问题),试图找到基本操作的成本。 但是,我尝试制作自己的小程序,以便自己进行测试。在尝试测试加法和减法时,我遇到了一些问题,我用简单的代码向您展示了这一点
这个问题在这里已经有了答案: Will Java app slow down by presence of -Xdebug or only when stepping through code? (
我记得很久以前读过 with() 对 JavaScript 有一些严重的性能影响,因为它可能对范围堆栈进行非确定性更改。我很难找到最近对此的讨论。这仍然是真的吗? 最佳答案 与其说 with 对性能有
我们有一个数据仓库,其中包含非规范化表,行数从 50 万行到 6 多万行不等。我正在开发一个报告解决方案,因此出于性能原因我们正在使用数据库分页。我们的报告有搜索条件,并且我们已经创建了必要的索引,但
我有一条有效的 SQL 语句,但需要很长时间才能处理 我有一个 a_log 表和一个 people 表。我需要在 people 表中找到给定人员的每个 ID 的最后一个事件和关联的用户。 SELECT
很难说出这里问的是什么。这个问题是含糊的、模糊的、不完整的、过于宽泛的或修辞性的,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开它,visit the help center 。 已关
通常当我建立一个站点时,我将所有的 CSS 放在一个文件中,并且一次性定义与一组元素相关的所有属性。像这样: #myElement { color: #fff; background-
两者之间是否存在任何性能差异: p { margin:0px; padding:0px; } 并省略最后的分号: p { margin:0px; padding:0px } 提前致谢!
我的应用程序 (PHP) 需要执行大量高精度数学运算(甚至可能出现一共100个数字) 通过这个论坛的最后几篇帖子,我发现我必须使用任何高精度库,如 BC Math 或 GMP,因为 float 类型不
我一直在使用 javamail 从 IMAP 服务器(目前是 GMail)检索邮件。 Javamail 非常快速地从服务器检索特定文件夹中的消息列表(仅 id),但是当我实际获取消息(仅包含甚至不包含
我非常渴望开发我的第一个 Ruby 应用程序,因为我的公司终于在内部批准了它的使用。 在我读到的关于 Ruby v1.8 之前的所有内容中,从来没有任何关于性能的正面评价,但我没有发现关于 1.9 版
我是 Redis 的新手,我有一个包含数百万个成员(member) ID、电子邮件和用户名的数据集,并且正在考虑将它们存储在例如列表结构中。我认为 list 和 sorted set 可能最适合我的情
我是一名优秀的程序员,十分优秀!