gpt4 book ai didi

python - 多处理池和 Lightgbm

转载 作者:行者123 更新时间:2023-12-05 06:17:33 31 4
gpt4 key购买 nike

我正在尝试使用 python 中的多进程池来训练完全独立的任务,其中 lightgbm 用于训练(我不确定这是否与问题相关)。这是代码

from sklearn.datasets import load_breast_cancer
import pandas as pd
from sklearn.model_selection import train_test_split, KFold
import lightgbm as lgb
import numpy as np

def functionToParallize(splitnumber=2):

data = load_breast_cancer()
X = pd.DataFrame(data.data, columns=data.feature_names)
y = pd.Series(data.target)
X_train, X_test, y_train, y_test = train_test_split(X, y)
folds = KFold(splitnumber)
results = lgb.cv({}, lgb.Dataset(X_train, y_train), folds=folds,metrics=['rmse'])
return results

为了并行化,我将多处理池与 2 个池 worker 一起使用。但它确实效率低下,因为使用 2 个池完成一项任务所需的时间是仅使用一个池的 1000 倍。例如。

from multiprocessing import Pool 
import psutil
print(psutil.cpu_count())

输出

4

starttime=time.time()
pool = Pool(2)
multiple_results = [pool.apply_async(functionToParallize) for i in [3]]
p=[res.get() for res in multiple_results]
print((time.time()-starttime)/60)

输出

0.007067755858103434

但是有两个池子

starttime=time.time()
pool = Pool(2)
multiple_results = [pool.apply_async(functionToParallize) for i in [2,3]]
p=[res.get() for res in multiple_results]
print((time.time()-starttime)/60)

1.026989181836446

这实际上不是最初的任务,但我在那里做类似的事情。但是对于那个单一的任务大约需要一分钟,而 pool 2 进程永远不会在那里结束。我在这里做错了什么吗?我在 jupyter notebook 上做这个,如果相关的话。

感谢任何帮助!谢谢!

最佳答案

找到原因了,是因为lgb的内线程和custom pooling冲突了。强制 lgb 不使用线程有帮助。

results = lgb.cv({'num_threads':1}, lgb.Dataset(X_train, y_train), folds=folds,metrics=['rmse'])

谢谢曼子,干杯

关于python - 多处理池和 Lightgbm,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61614757/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com