首页 > 解决方案 > 撤消规模数据pyspark

问题描述

from pyspark.ml.feature import MinMaxScaler
from pyspark.ml.linalg import Vectors

df = spark.createDataFrame([
   (0, Vectors.dense([5.0, 0.1, -1.0]),),
   (1, Vectors.dense([2.0, 2.1, 1.0]),),
   (2, Vectors.dense([3.0, 10.1, 7.0]),)
], ["id", "features"])

scaler = MinMaxScaler(inputCol="features", outputCol="scaledFeatures")
scaler_model = scaler.fit(df)
scaled_data = scalerModel.transform(df)

scaled_data是转换后的数据。

拟合机器学习模型后如何进行逆尺度分析结果?

标签: apache-sparkpysparkapache-spark-mllib

解决方案


MinMaxScaler将缩放特征添加为新scaledFeatures列,因此您的实际数据不会丢失。

在将其用于机器学习模型之前,您可以使用该features列来分析您的输出列。scaledFeatures


推荐阅读