gpt4 book ai didi

python-3.x - 运行 300000 行的 csv 时 python 中的内存错误

转载 作者:行者123 更新时间:2023-12-03 08:45:10 25 4
gpt4 key购买 nike

当我尝试运行以下程序时出现上述错误。有人可以解释什么是内存错误,以及如何克服这个问题?

这是我尝试运行 csv 文件的时候。

如何解决问题?

tfidf = TfidfVectorizer(sublinear_tf=True, min_df=5, norm='l2', encoding='latin-1', ngram_range=(1, 2), stop_words='english')
features = tfidf.fit_transform(df.Consumer_complaint_narrative).toarray()
labels = df.category_id
features.shape
MemoryError                               Traceback (most recent call last)
<ipython-input-4-97e32167d120> in <module>
1 from sklearn.feature_extraction.text import TfidfVectorizer
2 tfidf = TfidfVectorizer(sublinear_tf=True, min_df=5, norm='l2', encoding='latin-1', ngram_range=(1, 2), stop_words='english')
----> 3 features = tfidf.fit_transform(df.Consumer_complaint_narrative).toarray()
4 labels = df.category_id
5 features.shape

F:\Anaconda3\lib\site-packages\scipy\sparse\compressed.py in toarray(self, order, out)
960 if out is None and order is None:
961 order = self._swap('cf')[0]
--> 962 out = self._process_toarray_args(order, out)
963 if not (out.flags.c_contiguous or out.flags.f_contiguous):
964 raise ValueError('Output array must be C or F contiguous')

F:\Anaconda3\lib\site-packages\scipy\sparse\base.py in _process_toarray_args(self, order, out)
1185 return out
1186 else:
-> 1187 return np.zeros(self.shape, dtype=self.dtype, order=order)
1188
1189

MemoryError:

最佳答案

我通过更改 pycharm 中的 vmoption 修复了内存错误,
在 C:\Program Files\JetBrains\PyCharm 2018.1.4\bin\pycharm64.exe vmoption 文件中添加了 -Xmx5024m。这解决了我的内存错误。我什至在 ssd 中使用了巨大的分页文件。

关于python-3.x - 运行 300000 行的 csv 时 python 中的内存错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56465195/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com