gpt4 book ai didi

apache-spark - 撤消缩放数据 pyspark

转载 作者:行者123 更新时间:2023-12-01 04:33:54 28 4
gpt4 key购买 nike

from pyspark.ml.feature import MinMaxScaler
from pyspark.ml.linalg import Vectors

df = spark.createDataFrame([
(0, Vectors.dense([5.0, 0.1, -1.0]),),
(1, Vectors.dense([2.0, 2.1, 1.0]),),
(2, Vectors.dense([3.0, 10.1, 7.0]),)
], ["id", "features"])

scaler = MinMaxScaler(inputCol="features", outputCol="scaledFeatures")
scaler_model = scaler.fit(df)
scaled_data = scalerModel.transform(df)
scaled_data是转换后的数据。

拟合机器学习模型后,如何进行逆标度分析结果?

最佳答案

MinMaxScaler添加缩放功能作为新 scaledFeatures列,因此您的实际数据不会丢失。

您可以使用 features列分析您的 scaledFeatures在将其用于机器学习模型之前输出列。

关于apache-spark - 撤消缩放数据 pyspark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52092980/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com