- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我尝试使用多处理来加速我的一个应用程序,结果导致性能下降。我确信这是一个设计缺陷,但这就是讨论的重点 - 如何更好地解决这个问题以利用多处理。
我目前在 1.4ghz 原子上的结果:
两个版本的代码都可以复制和粘贴以供您查看。数据集在底部,也可以粘贴。 (我决定不使用 xrange 来说明问题)
首先是SP版本:
*PASTE DATA HERE*
def calc():
for i, valD1 in enumerate(D1):
for i, valD2 in enumerate(D2):
for i, valD3 in enumerate(D3):
for i, valD4 in enumerate(D4):
for i, valD5 in enumerate(D5):
for i, valD6 in enumerate(D6):
for i, valD7 in enumerate(D7):
sol1=float(valD1[1]+valD2[1]+valD3[1]+valD4[1]+valD5[1]+valD6[1]+valD7[1])
sol2=float(valD1[2]+valD2[2]+valD3[2]+valD4[2]+valD5[2]+valD6[2]+valD7[2])
return None
print(calc())
现在是 MP 版本:
import multiprocessing
import itertools
*PASTE DATA HERE*
def calculate(vals):
sol1=float(valD1[0]+valD2[0]+valD3[0]+valD4[0]+valD5[0]+valD6[0]+valD7[0])
sol2=float(valD1[1]+valD2[1]+valD3[1]+valD4[1]+valD5[1]+valD6[1]+valD7[1])
return none
def process():
pool = multiprocessing.Pool(processes=4)
prod = itertools.product(([x[1],x[2]] for x in D1), ([x[1],x[2]] for x in D2), ([x[1],x[2]] for x in D3), ([x[1],x[2]] for x in D4), ([x[1],x[2]] for x in D5), ([x[1],x[2]] for x in D6), ([x[1],x[2]] for x in D7))
result = pool.imap(calculate, prod, chunksize=2500)
pool.close()
pool.join()
return result
if __name__ == "__main__":
print(process())
两者的数据:
D1 = [['A',7,4],['B',3,7],['C',6,1],['D',12,6],['E',4,8],['F',8,7],['G',11,3],['AX',11,7],['AX',11,2],['AX',11,4],['AX',11,4]]
D2 = [['A',7,4],['B',3,7],['C',6,1],['D',12,6],['E',4,8],['F',8,7],['G',11,3],['AX',11,7],['AX',11,2],['AX',11,4],['AX',11,4]]
D3 = [['A',7,4],['B',3,7],['C',6,1],['D',12,6],['E',4,8],['F',8,7],['G',11,3],['AX',11,7],['AX',11,2],['AX',11,4],['AX',11,4]]
D4 = [['A',7,4],['B',3,7],['C',6,1],['D',12,6],['E',4,8],['F',8,7],['G',11,3],['AX',11,7],['AX',11,2],['AX',11,4],['AX',11,4]]
D5 = [['A',7,4],['B',3,7],['C',6,1],['D',12,6],['E',4,8],['F',8,7],['G',11,3],['AX',11,7],['AX',11,2],['AX',11,4],['AX',11,4]]
D6 = [['A',7,4],['B',3,7],['C',6,1],['D',12,6],['E',4,8],['F',8,7],['G',11,3],['AX',11,7],['AX',11,2],['AX',11,4],['AX',11,4]]
D7 = [['A',7,4],['B',3,7],['C',6,1],['D',12,6],['E',4,8],['F',8,7],['G',11,3],['AX',11,7],['AX',11,2],['AX',11,4],['AX',11,4]]
现在是理论:
由于实际工作很少(仅对 7 个整数求和),CPU 绑定(bind)数据过多,进程间通信产生过多开销,无法使多处理有效。这似乎是我真正需要多线程能力的情况。所以在这一点上,我正在寻找建议,然后再尝试使用 GIL 的不同语言。
*********调试
File "calc.py", line 309, in <module>
smart_calc()
File "calc.py", line 290, in smart_calc
results = pool.map(func, chunk_list)
File "/usr/local/lib/python2.7/multiprocessing/pool.py", line 250, in map
return self.map_async(func, iterable, chunksize).get()
File "/usr/local/lib/python2.7/multiprocessing/pool.py", line 554, in get
raise self._value
TypeError: sequence index must be integer, not 'slice'
在这种情况下,totallen = 108 并且 CHUNKS 设置为 2。当 CHUNKS 减为 1 时,它起作用。
最佳答案
好吧,我想我已经发现实际上可以从多处理中获得速度提升。由于您的实际源列表不是很长,因此将它们全部传递给工作进程是合理的。因此,如果每个工作进程都有相同源列表的副本,那么理想情况下我们希望所有这些进程都并行迭代列表的不同部分,然后只对那个唯一的片段求和。因为我们知道输入列表的大小,所以我们可以准确地确定 itertools.product(D1, D2, ...)
的长度,这意味着我们也可以准确地确定每个 block 应该有多大是平均分配工作。因此,我们可以为每个工作人员提供特定范围的 itertools.product
迭代器,他们应该对其进行迭代和求和:
import math
import itertools
import multiprocessing
import functools
def smart_calc(valD1, valD2, valD3, valD4, valD5, valD6, valD7, slices):
# Build an iterator over the entire data set
prod = itertools.product(([x[1],x[2]] for x in valD1),
([x[1],x[2]] for x in valD2),
([x[1],x[2]] for x in valD3),
([x[1],x[2]] for x in valD4),
([x[1],x[2]] for x in valD5),
([x[1],x[2]] for x in valD6),
([x[1],x[2]] for x in valD7))
# But only iterate over our unique slice
for subD1, subD2, subD3, subD4, subD5, subD6, subD7 in itertools.islice(prod, slices[0], slices[1]):
sol1=float(subD1[0]+subD2[0]+subD3[0]+subD4[0]+subD5[0]+subD6[0]+subD7[0])
sol2=float(subD1[1]+subD2[1]+subD3[1]+subD4[1]+subD5[1]+subD6[1]+subD7[1])
return None
def smart_process():
CHUNKS = multiprocessing.cpu_count() # Number of pieces to break the list into.
total_len = len(D1) ** 7 # The total length of itertools.product()
# Figure out how big each chunk should be. Got this from
# multiprocessing.map()
chunksize, extra = divmod(total_len, CHUNKS)
if extra:
chunksize += 1
# Build a list that has the low index and high index for each
# slice of the list. Each process will iterate over a unique
# slice
low = 0
high = chunksize
chunk_list = []
for _ in range(CHUNKS):
chunk_list.append((low, high))
low += chunksize
high += chunksize
pool = multiprocessing.Pool(processes=CHUNKS)
# Use partial so we can pass all the lists to each worker
# while using map (which only allows one arg to be passed)
func = functools.partial(smart_calc, D1, D2, D3, D4, D5, D6, D7)
result = pool.map(func, chunk_list)
pool.close()
pool.join()
return result
结果:
sequential: 13.9547419548
mp: 4.0270690918
成功了!现在,您确实必须在获得结果后实际组合这些结果,这会给您的实际程序增加额外的开销。它最终可能会使这种方法再次比顺序方法慢,但这实际上取决于您实际想要对数据执行的操作。
关于python - 单进程代码执行速度比多进程代码快 - MCVE,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25233830/
这看起来很基础,但我想不通。是否有一种简单的 CSS 唯一方法可以使 cssa 真正快速淡入并缓慢淡出。这是为了改变多个 div 的颜色。大约 0.5 秒的缓入和 2 秒的缓出。 谢谢! 最佳答案 你
我一直在用各种语言和实现实现相同的代码(在 Blackjack 中发牌而不爆牌的方法的数量)。我注意到的一个奇怪之处是,Python 在 C 中调用分区函数的实现实际上比用 C 编写的整个程序快一点。
如果我没看错,/ 意味着它右边的节点必须是左边节点的直接子节点,例如/ul/li 返回 li 项,它们是作为文档根的 ul 项的直接子项。 //ul//li 返回 li 项,它们是文档中某处任何 ul
如何随机更新一个表。所以你给一列一个随机值。并且该列(例如“顶部”)是唯一的。如果您在数字 10 到 20 之间进行选择,并且您有 10 行,那么您就不能有未使用的数字。如果你有 Test table
这在一小部分是一个问题(因为我不明白为什么它会有所不同),在很大程度上是一篇希望能帮助其他一些可怜的程序员的帖子。 我有一个代码库,是我大约 5-7 年前第一次开始 Android 编程时编写的,它具
我正在尝试过滤关系表以获得满足两个条件的表子集(即:我想要 color_ids 为 1 或 2 的条目的所有 ID)。这是一张结实的 table ,所以我正在尝试尽可能多地进行优化。 我想知道是否有人
在上一篇《聊聊PHP中require_once()函数为什么不好用》中给大家介绍了PHP中require_once()为什么不好用的原因,感兴趣的朋友可以去阅读了解一下~ 那么本文将给大家介绍PH
很难说出这里问的是什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或言辞激烈,无法以目前的形式合理回答。如需帮助澄清此问题以便可以重新打开,visit the help center . 10年前关
有没有办法提高glReadPixels的速度?目前我做: Gdx.gl.glReadPixels(0, 0, Gdx.graphics.getWidth(), Gdx.graphics.getHeig
通常,我以函数形式`:=`()来计算data.table中的多列,认为这是最有效的方法。但是我最近发现它比简单地重复使用:=慢。至少在我的电脑上。 我猜想:=的功能形式可能会产生一些开销,但这是它变慢
我的问题是针对 Windows 环境中多线程的性能问题。 在测试我的代码后,我得到的结果是增加线程数不会提高并行计算的性能,并且在经过一些计数后变得更少。到底是怎么回事?是否可以找出最佳线程数的公式:
我看到很少有相同问题的主题,但我仍然无法解决我的问题。这是我的代码 - 使用 XOR 加密的 C 套接字编程 当服务器和客户端连接时:- 用户发送消息,例如:你好- 服务器响应,例如:(服务器):你好
我正在定义继承自 Shape 类并实现“几何”属性的形状。 这是一个例子: public class Landmark : Shape { public override bool IsInB
相同代码在 Android(1Ghz Snapdragon)上的执行速度比我在 3.3 Ghz Core 2 Duo 的 PC(在桌面应用程序中)快 2 倍(PC 的类被复制到 Android 项目)
我需要将一个值与一组数组进行比较。但是,我需要比较 foreach 中的多个值。如果使用 in_array,它可能会很慢,真的很慢。有没有更快的选择?我当前的代码是 foreach($a as $b)
这个问题在这里已经有了答案: How do I write a correct micro-benchmark in Java? (11 个答案) 关闭 9 年前。 今天我做了一个简单的测试来比较
如果比较不应该以这种方式进行,我深表歉意。我是编程新手,只是很好奇为什么会这样。 我有一个包含词嵌入的大型二进制文件 (4.5gb)。每行都有一个单词,后面跟着它的嵌入,它由 300 个浮点值组成。我
我经历了几个不同的四元数乘法实现,但我很惊讶地发现引用实现是迄今为止我最快的实现。这是有问题的实现: inline static quat multiply(const quat& lhs, cons
我写了一个简单的例子,估计调用虚函数的平均时间,使用基类接口(interface)和dynamic_cast和调用非虚函数。这是它: #include #include #include #in
有没有人知道比“StackWalk”更好/更快的获取调用堆栈的方法?我还认为 stackwalk 在有很多变量的方法上也会变慢......(我想知道商业分析员是做什么的?)我在 Windows 上使用
我是一名优秀的程序员,十分优秀!