- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有以下使用 pyspark.ml 包进行线性回归的代码。但是,当模型适合时,我在最后一行收到此错误消息:
IllegalArgumentException: u'requirement failed: Column features must be of type org.apache.spark.ml.linalg.VectorUDT@3bfc3ba7 but was actually org.apache.spark.mllib.linalg.VectorUDT@f71b0bce.
pyspark.ml
中是否有替代品?对于
LabeledPoint
在
pyspark.mllib
?
from pyspark import SparkContext
from pyspark.ml.regression import LinearRegression
from pyspark.mllib.regression import LabeledPoint
import numpy as np
from pandas import *
data = sc.textFile("/FileStore/tables/w7baik1x1487076820914/randomTableSmall.csv")
def parsePoint(line):
values = [float(x) for x in line.split(',')]
return LabeledPoint(values[1], [values[0]])
points_df = data.map(parsePoint).toDF()
lr = LinearRegression()
model = lr.fit(points_df, {lr.regParam:0.0})
最佳答案
问题是较新版本的 spark 在 ml 的 linalg 模块中有一个 Vector 类,您不需要从 mllib.linalg 中获取它。此外,较新的版本不接受 ml 中的 spark.mllib.linalg.VectorUDT。这是适合您的代码:
from pyspark import SparkContext
from pyspark.ml.regression import LinearRegression
from pyspark.ml.linalg import Vectors
import numpy as np
data = sc.textFile("/FileStore/tables/w7baik1x1487076820914/randomTableSmall.csv")
def parsePoint(line):
values = [float(x) for x in line.split(',')]
return (values[1], Vectors.dense([values[0]]))
points_df = data.map(parsePoint).toDF(['label','features'])
lr = LinearRegression()
model = lr.fit(points_df)
关于pyspark - pyspark.mllib 中 LabeledPoint 的类型转换错误,用于在 pyspark.ml 中使用线性回归模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42231495/
我的 LabeledPoint 中有一些不平衡的数据.我想要做的是选择所有正面和 n负数倍(随机)。例如,如果我有一个 100正面和 30000底片,我想创建新 LabeledPoint与所有 100
如果我有一个大约有 500 列和 2 亿行的 RDD,并且 RDD.columns.indexOf("target", 0)显示 Int = 77这告诉我我的目标因变量在第 77 列。但我对如何选择所
我有两个 LabeledPoints - Prediction1 和 Prediction2。这两个LabeledPoints都具有作为第一个元素的值和作为第二个元素的预测。我想检查 Predicti
我正在尝试使用 Apache Spark MLlib 实现文档分类器,但在表示数据时遇到了一些问题。我的代码如下: import org.apache.spark.sql.{Row, SQLConte
我有两个 LabeledPoints - lable1 和 label2: label1 = (label,[feature1,feature2,feature3]) label2 = (label,
我在使用 PySpark 的 saveAsHadoopFile() 时遇到错误,而在使用 saveAsSequenceFile() 时遇到同样的错误。我需要保存一个 (key,val) 的 RDD,其
我正在一个非常简单的数据集上运行一些测试,该数据集基本上由数字数据组成。可以查到here . 我在使用 pandas、numpy 和 scikit-learn 时效果很好,但在转向 Spark 时,我
我已经使用 Impala 构建了一个包含目标和数百个特征的表。我想使用 Spark MLlib 来训练模型。我知道为了通过 Spark 运行分布式监督模型,数据需要采用多种格式之一。 LabeledP
我是 Apache Spark 的新手,正在尝试将数据从 .csv 文件转换为 LabeledPoint 以使用 Apache Spark 的 MLlib 包。我尝试使用以下代码获取 LabeledP
我有一个这样的数据文件: "id"; "a"; "b"; "c"; "d"; "e"; "f"; "outcome" 1144216938;1988;0;0;1;1965.115431348724;1
我尝试将 PCA 应用于我的数据,然后将 RandomForest 应用于转换后的数据。但是,PCA.transform(data) 给了我一个 DataFrame,但我需要一个 mllib Labe
我有一个 LabeledPoint 我想运行逻辑回归: Data: org.apache.spark.rdd.RDD[org.apache.spark.mllib.regression.Labeled
我在 RDD[LabeledPoint] 中有数据(在下面的代码中表示为 sparse0.sparseData) 我想转换为RDD[(Long,Vector)],这样我就可以在mllib包中运行LDA
我正在尝试使用 Spark MLlib 实现一个简单的 SVM 分类算法。 我有一堆字符串和它们的标签,现在我想对它们执行 TF-IDF,并将结果提供给 SVM 算法。 所以我正在寻找的是从 Stri
我使用 python 中的什么 .map() 函数从 spark 数据帧创建一组 labeledPoints?如果标签/结果不是第一列,但我可以引用其列名“状态”,那么符号是什么? 我使用这个 .ma
我有以下使用 pyspark.ml 包进行线性回归的代码。但是,当模型适合时,我在最后一行收到此错误消息: IllegalArgumentException: u'requirement failed
我了解到,在使用 spark 数据框时,您会希望将任何数据源直接导入为 spark 数据框。在我的例子中,我需要使用 pandas 函数来破坏表格并创建虚拟变量。因此,在读取数据后,我在我的 .map
以下代码行将(即将弃用)mllib.regression.LabeledPoint 从文件加载到 RDD[LabeledPoint]: MLUtils.loadLibSVMFile(spark.spa
我正在准备包含 Id(标签)和关键字(功能)的数据,以将它们传递给 Java 中的 MLlib 算法。我的关键字是用逗号分隔的字符串。我的目标是使用多类分类算法来预测 id。问题是,如何构建 Labe
我正在使用 Apache-Spark 和 Scala 的 MLlib。我需要转换一组 Vector import org.apache.spark.mllib.linalg.{Vector, Vect
我是一名优秀的程序员,十分优秀!