gpt4 book ai didi

python - 大型数据集的 TFIDF

转载 作者:IT老高 更新时间:2023-10-28 22:04:41 28 4
gpt4 key购买 nike

我有一个包含大约 800 万篇新闻文章的语料库,我需要将它们的 TFIDF 表示为稀疏矩阵。对于相对较少数量的样本,我已经能够使用 scikit-learn 做到这一点,但我相信它不能用于如此庞大的数据集,因为它首先将输入矩阵加载到内存中,这是一个昂贵的过程。

有谁知道,为大型数据集提取 TFIDF 向量的最佳方法是什么?

最佳答案

Gensim 有一个高效的 tf-idf model并且不需要一次将所有内容都保存在内存中。

您的语料库只需要是一个可迭代的,因此它不需要一次将整个语料库保存在内存中。

make_wiki script根据评论,在笔记本电脑上运行了大约 50m 的维基百科。

关于python - 大型数据集的 TFIDF,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25145552/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com