gpt4 book ai didi

python - 为什么在进行文本聚类时在 K-Means 之前使用 LSA

转载 作者:行者123 更新时间:2023-12-01 08:51:00 29 4
gpt4 key购买 nike

我正在学习 Scikit 的本教程,学习使用 K-Means 进行文本聚类:
http://scikit-learn.org/stable/auto_examples/text/document_clustering.html

在示例中,可选地使用 LSA(使用 SVD)来执行降维。

为什么这很有用?已经可以使用“max_features”参数在 TF-IDF 向量化器中控制维度(特征)的数量。

我知道 LSA(和 LDA)也是主题建模技术。与聚类的区别在于文档属于多个主题,但只属于一个聚类。我不明白为什么 LSA 会在 K-Means 聚类的上下文中使用。

示例代码:

from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.cluster import KMeans

documents = ["some text", "some other text", "more text"]

tfidf_vectorizer = TfidfVectorizer(max_df=0.5, max_features=10000, min_df=2, stop_words='english', use_idf=True)
X = tfidf_vectorizer.fit_transform(documents)

svd = TruncatedSVD(1000)
normalizer = Normalizer(copy=False)
lsa = make_pipeline(svd, normalizer)
Xnew = lsa.fit_transform(X)

model = KMeans(n_clusters=10, init='k-means++', max_iter=100, n_init=1, verbose=False)
model.fit(Xnew)

最佳答案

a paper这表明 PCA 特征向量是 K-Means 的良好初始化器。

使用 max_features 控制尺寸参数相当于切断词汇量大小,产生负面影响。例如,如果您设置 max_features到 10 模型将使用语料库中最常见的 10 个单词并忽略其余单词。

关于python - 为什么在进行文本聚类时在 K-Means 之前使用 LSA,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42394846/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com