gpt4 book ai didi

python - 为什么 Python 中的子类化会减慢速度?

转载 作者:行者123 更新时间:2023-12-03 14:24:54 25 4
gpt4 key购买 nike

我正在研究一个扩展 dict 的简单类,我意识到 pickle 的 key 查找和使用很慢。

我认为这是我类(class)的问题,所以我做了一些琐碎的基准测试:

(venv) marco@buzz:~/sources/python-frozendict/test$ python --version
Python 3.9.0a0
(venv) marco@buzz:~/sources/python-frozendict/test$ sudo pyperf system tune --affinity 3
[sudo] password for marco:
Tune the system configuration to run benchmarks

Actions
=======

CPU Frequency: Minimum frequency of CPU 3 set to the maximum frequency

System state
============

CPU: use 1 logical CPUs: 3
Perf event: Maximum sample rate: 1 per second
ASLR: Full randomization
Linux scheduler: No CPU is isolated
CPU Frequency: 0-3=min=max=2600 MHz
CPU scaling governor (intel_pstate): performance
Turbo Boost (intel_pstate): Turbo Boost disabled
IRQ affinity: irqbalance service: inactive
IRQ affinity: Default IRQ affinity: CPU 0-2
IRQ affinity: IRQ affinity: IRQ 0,2=CPU 0-3; IRQ 1,3-17,51,67,120-131=CPU 0-2
Power supply: the power cable is plugged

Advices
=======

Linux scheduler: Use isolcpus=<cpu list> kernel parameter to isolate CPUs
Linux scheduler: Use rcu_nocbs=<cpu list> kernel parameter (with isolcpus) to not schedule RCU on isolated CPUs
(venv) marco@buzz:~/sources/python-frozendict/test$ python -m pyperf timeit --rigorous --affinity 3 -s '
x = {0:0, 1:1, 2:2, 3:3, 4:4}
' 'x[4]'
.........................................
Mean +- std dev: 35.2 ns +- 1.8 ns
(venv) marco@buzz:~/sources/python-frozendict/test$ python -m pyperf timeit --rigorous --affinity 3 -s '
class A(dict):
pass

x = A({0:0, 1:1, 2:2, 3:3, 4:4})
' 'x[4]'
.........................................
Mean +- std dev: 60.1 ns +- 2.5 ns
(venv) marco@buzz:~/sources/python-frozendict/test$ python -m pyperf timeit --rigorous --affinity 3 -s '
x = {0:0, 1:1, 2:2, 3:3, 4:4}
' '5 in x'
.........................................
Mean +- std dev: 31.9 ns +- 1.4 ns
(venv) marco@buzz:~/sources/python-frozendict/test$ python -m pyperf timeit --rigorous --affinity 3 -s '
class A(dict):
pass

x = A({0:0, 1:1, 2:2, 3:3, 4:4})
' '5 in x'
.........................................
Mean +- std dev: 64.7 ns +- 5.4 ns
(venv) marco@buzz:~/sources/python-frozendict/test$ python
Python 3.9.0a0 (heads/master-dirty:d8ca2354ed, Oct 30 2019, 20:25:01)
[GCC 9.2.1 20190909] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> from timeit import timeit
>>> class A(dict):
... def __reduce__(self):
... return (A, (dict(self), ))
...
>>> timeit("dumps(x)", """
... from pickle import dumps
... x = {0:0, 1:1, 2:2, 3:3, 4:4}
... """, number=10000000)
6.70694484282285
>>> timeit("dumps(x)", """
... from pickle import dumps
... x = A({0:0, 1:1, 2:2, 3:3, 4:4})
... """, number=10000000, globals={"A": A})
31.277778962627053
>>> timeit("loads(x)", """
... from pickle import dumps, loads
... x = dumps({0:0, 1:1, 2:2, 3:3, 4:4})
... """, number=10000000)
5.767975459806621
>>> timeit("loads(x)", """
... from pickle import dumps, loads
... x = dumps(A({0:0, 1:1, 2:2, 3:3, 4:4}))
... """, number=10000000, globals={"A": A})
22.611666693352163

结果真的很惊喜。虽然键查找速度慢了 2 倍,但 pickle慢 5 倍。

怎么会这样?其他方法,如 get() , __eq__()__init__() , 并迭代 keys() , values()items()dict 一样快.

编辑 : 我看了一下Python 3.9的源代码,在 Objects/dictobject.c似乎 __getitem__()方法由 dict_subscript() 实现.和 dict_subscript()仅当缺少键时才减慢子类,因为子类可以实现 __missing__()它试图查看它是否存在。但是基准是使用现有的 key 。

但我注意到了一些事情: __getitem__()用标志 METH_COEXIST 定义.还有 __contains__() ,另一种慢 2 倍的方法具有相同的标志。来自 official documentation :

The method will be loaded in place of existing definitions. Without METH_COEXIST, the default is to skip repeated definitions. Since slot wrappers are loaded before the method table, the existence of a sq_contains slot, for example, would generate a wrapped method named contains() and preclude the loading of a corresponding PyCFunction with the same name. With the flag defined, the PyCFunction will be loaded in place of the wrapper object and will co-exist with the slot. This is helpful because calls to PyCFunctions are optimized more than wrapper object calls.



所以如果我理解正确,理论上 METH_COEXIST应该加快速度,但似乎有相反的效果。为什么?

编辑 2 : 我发现了更多的东西。
__getitem__()__contains()__被标记为 METH_COEXIST ,因为它们是在 PyDict_Type 中声明的两个 次。

有一次,它们都出现在插槽 tp_methods 中。 ,其中它们被显式声明为 __getitem__()__contains()__ .但是 official documentationtp_methods不是 由子类继承。

所以 dict 的子类不打电话 __getitem__() , 但调用子槽 mp_subscript .确实, mp_subscript包含在插槽 tp_as_mapping 中,这允许子类继承其子槽。

问题是 __getitem__()mp_subscript使用 相同函数, dict_subscript .有没有可能只是它的继承方式减慢了它的速度?

最佳答案

索引和indict 中较慢由于 dict 之间的不良交互而导致的子类优化和逻辑子类用于继承 C 插槽。这应该是可以修复的,尽管不是从你的目的。

CPython 实现有两组用于运算符重载的钩子(Hook)。有 Python 级别的方法,如 __contains____getitem__ ,但在类型对象的内存布局中还有一组单独的用于 C 函数指针的插槽。通常,Python 方法将是 C 实现的包装器,或者 C 槽将包含搜索和调用 Python 方法的函数。 C槽直接实现操作效率更高,因为C槽是Python实际访问的。

用 C 编写的映射实现了 C 槽 sq_containsmp_subscript提供in和索引。通常,Python 级别的 __contains____getitem__方法将作为 C 函数的包装器自动生成,但 dict类(class)有explicit implementations__contains____getitem__ ,因为显式实现比生成的包装要快一点:

static PyMethodDef mapp_methods[] = {
DICT___CONTAINS___METHODDEF
{"__getitem__", (PyCFunction)(void(*)(void))dict_subscript, METH_O | METH_COEXIST,
getitem__doc__},
...

(实际上,显式的 __getitem__ 实现与 mp_subscript 实现的功能相同,只是包装器类型不同。)

通常,子类会继承其父类的 C 级 Hook 的实现,例如 sq_contains。和 mp_subscript ,并且子类与父类(super class)一样快。然而, update_one_slot 中的逻辑通过 MRO 搜索尝试查找生成的包装器方法来查找父实现。
dict没有为 sq_contains 生成包装器和 mp_subscript ,因为它提供了明确的 __contains____getitem__实现。

而不是继承 sq_containsmp_subscript , update_one_slot最终给出子类 sq_containsmp_subscript__contains__ 执行 MRO 搜索的实现和 __getitem__并调用那些。这比直接继承 C 插槽效率低得多。

解决此问题需要更改 update_one_slot执行。

除了我上面描述的, dict_subscript还查找 __missing__对于 dict 子类,因此修复插槽继承问题不会使子类与 dict 完全一致本身的查找速度,但它应该让他们更接近。

至于酸洗,上 dumps一方面,pickle 实现有一个 dedicated fast path对于 dicts,而 dict 子类通过 object.__reduce_ex__ 采取更迂回的路径和 save_reduce .

loads一方面,时间差主要来自额外的操作码和查找来检索和实例化 __main__.A类,而 dicts 有一个专门的 pickle 操作码来制作一个新的 dict。如果我们比较泡菜的拆解:
In [26]: pickletools.dis(pickle.dumps({0: 0, 1: 1, 2: 2, 3: 3, 4: 4}))                                                                                                                                                           
0: \x80 PROTO 4
2: \x95 FRAME 25
11: } EMPTY_DICT
12: \x94 MEMOIZE (as 0)
13: ( MARK
14: K BININT1 0
16: K BININT1 0
18: K BININT1 1
20: K BININT1 1
22: K BININT1 2
24: K BININT1 2
26: K BININT1 3
28: K BININT1 3
30: K BININT1 4
32: K BININT1 4
34: u SETITEMS (MARK at 13)
35: . STOP
highest protocol among opcodes = 4

In [27]: pickletools.dis(pickle.dumps(A({0: 0, 1: 1, 2: 2, 3: 3, 4: 4})))
0: \x80 PROTO 4
2: \x95 FRAME 43
11: \x8c SHORT_BINUNICODE '__main__'
21: \x94 MEMOIZE (as 0)
22: \x8c SHORT_BINUNICODE 'A'
25: \x94 MEMOIZE (as 1)
26: \x93 STACK_GLOBAL
27: \x94 MEMOIZE (as 2)
28: ) EMPTY_TUPLE
29: \x81 NEWOBJ
30: \x94 MEMOIZE (as 3)
31: ( MARK
32: K BININT1 0
34: K BININT1 0
36: K BININT1 1
38: K BININT1 1
40: K BININT1 2
42: K BININT1 2
44: K BININT1 3
46: K BININT1 3
48: K BININT1 4
50: K BININT1 4
52: u SETITEMS (MARK at 31)
53: . STOP
highest protocol among opcodes = 4

我们看到两者的区别在于第二个pickle需要一大堆操作码来查找 __main__.A。并实例化它,而第一个泡菜只是做 EMPTY_DICT得到一个空的字典。之后,两个 pickle 将相同的键和值压入 pickle 操作数堆栈并运行 SETITEMS .

关于python - 为什么 Python 中的子类化会减慢速度?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59912147/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com