gpt4 book ai didi

python - 如何使用 scikit 学习具有新值的 inverse_transform

转载 作者:行者123 更新时间:2023-12-05 00:48:19 25 4
gpt4 key购买 nike

我有一组我用scikit学习PCA的数据。在使用 StandardScaler() 执行 PCA 之前,我对数据进行了缩放。

variance_to_retain = 0.99
np_scaled = StandardScaler().fit_transform(df_data)
pca = PCA(n_components=variance_to_retain)
np_pca = pca.fit_transform(np_scaled)

# make dataframe of scaled data
# put column names on scaled data for use later
df_scaled = pd.DataFrame(np_scaled, columns=df_data.columns)
num_components = len(pca.explained_variance_ratio_)
cum_variance_explained = np.cumsum(pca.explained_variance_ratio_)

eigenvalues = pca.explained_variance_
eigenvectors = pca.components_

然后我在缩放的数据集上运行 K-Means 聚类。我可以在缩放空间中很好地绘制聚类中心。

我的问题是:如何将中心的位置转换回原始数据空间。我知道 StandardScaler.fit_transform() 使数据的均值和单位方差为零。但是有了新的形状点(num_clusters,num_features),我可以使用 inverse_transform(centers) 将中心转换回原始数据的范围和偏移量吗?

谢谢,大卫

最佳答案

您可以在 kmeans 上获取 cluster_centers,然后将其插入您的 pca.inverse_transform

这是一个例子

import numpy as np
from sklearn import decomposition
from sklearn import datasets
from sklearn.cluster import KMeans
from sklearn.preprocessing import StandardScaler



iris = datasets.load_iris()
X = iris.data
y = iris.target

scal = StandardScaler()
X_t = scal.fit_transform(X)

pca = decomposition.PCA(n_components=3)
pca.fit(X_t)
X_t = pca.transform(X_t)

clf = KMeans(n_clusters=3)
clf.fit(X_t)

scal.inverse_transform(pca.inverse_transform(clf.cluster_centers_))

请注意,sklearn 有多种方法可以进行拟合/转换。你可以做 StandardScaler().fit_transform(X)但是你失去了定标器,并且不能重复使用它;你也不能用它来创建一个逆。

或者,你可以做 scal = StandardScaler()其次是 scal.fit(X)然后通过 scal.transform(X)
或者你可以做 scal.fit_transform(X)它结合了拟合/转换步骤

关于python - 如何使用 scikit 学习具有新值的 inverse_transform,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49885007/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com