- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
系统:Cloudera Quickstart VM 5.4 上的 Spark 1.3.0 (Anaconda Python dist.)
这是一个 Spark DataFrame:
from pyspark.sql import SQLContext
from pyspark.sql.types import *
sqlContext = SQLContext(sc)
data = sc.parallelize([('Foo',41,'US',3),
('Foo',39,'UK',1),
('Bar',57,'CA',2),
('Bar',72,'CA',3),
('Baz',22,'US',6),
(None,75,None,7)])
schema = StructType([StructField('Name', StringType(), True),
StructField('Age', IntegerType(), True),
StructField('Country', StringType(), True),
StructField('Score', IntegerType(), True)])
df = sqlContext.createDataFrame(data,schema)
data.show()
Name Age Country Score
Foo 41 US 3
Foo 39 UK 1
Bar 57 CA 2
Bar 72 CA 3
Baz 22 US 6
null 75 null 7
但是这些都不起作用!
df.dropna()
df.na.drop()
我收到这条消息:
>>> df.show()
Name Age Country Score
Foo 41 US 3
Foo 39 UK 1
Bar 57 CA 2
Bar 72 CA 3
Baz 22 US 6
null 75 null 7
>>> df.dropna().show()
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "/usr/lib/spark/python/pyspark/sql/dataframe.py", line 580, in __getattr__
jc = self._jdf.apply(name)
File "/usr/lib/spark/python/lib/py4j-0.8.2.1-src.zip/py4j/java_gateway.py", line 538, in __call__
File "/usr/lib/spark/python/lib/py4j-0.8.2.1-src.zip/py4j/protocol.py", line 300, in get_return_value
py4j.protocol.Py4JJavaError: An error occurred while calling o50.apply.
: org.apache.spark.sql.AnalysisException: Cannot resolve column name "dropna" among (Name, Age, Country, Score);
at org.apache.spark.sql.DataFrame$$anonfun$resolve$1.apply(DataFrame.scala:162)
at org.apache.spark.sql.DataFrame$$anonfun$resolve$1.apply(DataFrame.scala:162)
at scala.Option.getOrElse(Option.scala:120)
at org.apache.spark.sql.DataFrame.resolve(DataFrame.scala:161)
at org.apache.spark.sql.DataFrame.col(DataFrame.scala:436)
at org.apache.spark.sql.DataFrame.apply(DataFrame.scala:426)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:231)
at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:379)
at py4j.Gateway.invoke(Gateway.java:259)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:207)
at java.lang.Thread.run(Thread.java:745)
有没有其他人遇到过这个问题?解决方法是什么? Pyspark 似乎我正在寻找一个名为“na”的列。任何帮助将不胜感激!
最佳答案
tl;dr 方法 na
和 dropna
仅从 Spark 1.3.1 开始可用。
你犯的几个错误:
data = sc.parallelize([....('',75,'', 7 )])
,你打算使用''
来表示None
,但是它只是一个String而不是null
na
和 dropna
都是 dataFrame 类的方法,因此,您应该使用 df
调用它。
可运行代码:
data = sc.parallelize([('Foo',41,'US',3),
('Foo',39,'UK',1),
('Bar',57,'CA',2),
('Bar',72,'CA',3),
('Baz',22,'US',6),
(None, 75, None, 7)])
schema = StructType([StructField('Name', StringType(), True),
StructField('Age', IntegerType(), True),
StructField('Country', StringType(), True),
StructField('Score', IntegerType(), True)])
df = sqlContext.createDataFrame(data,schema)
df.dropna().show()
df.na.drop().show()
关于apache-spark - 为什么 dropna() 不起作用?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30253550/
使用下面的代码,我已成功删除了 CSV 文件(由 33 列组成)中值可能为空的行。 import pandas as pd from sqlalchemy import create_engine d
首先我导入了整个文件并得到了 1002.0+ KB 的内存消耗 df = pd.read_csv( filepath_or_buffer="./dataset/chicago.csv" ) p
我有一个相当简单的问题:我想根据条件从 DataFrame 中删除行。数据框看起来像这样: Program act Original RO A Original RO na
我遇到了一个带有函数的代码,该函数接受一行数据,删除所有缺失值,并检查所有剩余值是否大于或等于 0: def check_null_or_valid(row_data): no_na = ro
我有以下数据框: df = pd.DataFrame([[1,2,3,3],[10,20,2,],[10,2,5,],[1,3],[2]],columns = ['a','b','c','d']) 从
我有这个数据框,叫做“fechadas”: print(fechadas) CNPJ Fav
我尝试删除一列 Filmname 中的所有 na 值,但这些值没有被删除。为什么? (我的结果截图) 这是我的代码: import pandas as pd df = read.csv.... df.
我有一个 X 维度数据集。如果 "lon" 和 "lat" 中有任何“Nan”值,我会尝试删除行列 我正在使用下面的代码 df3 = pd.read_csv("X.csv",nrows=10) pri
这是我拥有的数据框: A B C D F E 2013-01-01 0.000000 0.000000 0.100
我需要检查 pandas.DataFrame 子集的完整性。目前我正在这样做: special = df[df.kind=='special'] others = df[df.kind!='speci
我正在尝试从 Pandas 数据框中删除 NA 值。 我使用了 dropna()(它应该从数据框中删除所有 NA 行)。然而,它不起作用。 代码如下: import pandas as pd impo
我有这段代码可以从 Type 列中删除空值,特别是查看 Dog。 cd.loc[cd['Type'] == 'Dog'].dropna(subset = ['Killed'], inplace = T
我正在使用 pandas.DataFrame.dropna方法删除包含 NaN 的行。如文档中所示,此函数返回一个不包括删除的行的数据框。 如何将删除行的副本存储为单独的数据框?是: mydatafr
1.创建带有缺失值的数据库: ? 1
df.dropna()函数用于删除dataframe数据中的缺失数据,即 删除nan数据. 官方函数说明: ?
定义一个dataframe ? 1
系统:Cloudera Quickstart VM 5.4 上的 Spark 1.3.0 (Anaconda Python dist.) 这是一个 Spark DataFrame: from pysp
我有一个数据框,我想在其中删除除特定列(在本例中为“V1”)以外的所有值 NA df= V1 V2 V3 V4 A 10 20 NA B NA NA
我的目标:我希望删除特定列中包含 NaN 的行。我将允许 NaN 存在于某些列上,但不允许存在于其他列上。英文示例:如果一行中“detail_age”的值为 NaN,我想删除该行。 这是我的数据 Vi
我有一个 400 x 25 的数据框。我应该从数据集中删除所有 Nans,然后从 25 列中仅选择 3 列进行处理。我已经使用以下方法完成了此操作: df1.dropna(axis=0) df2=df
我是一名优秀的程序员,十分优秀!