- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我是 pyspark 的新手。我有如下所示的 Pandas 代码。
bindt = df[df[var].notnull()][var].quantile([0,.1,.2,.3,.4,.5,.6,.7,.8,.9,1]).unique()
df['{0}_quartile'.format(var)] = pd.cut(df[var], bindt, labels=False, include_lowest=True )
我在 pyspark 2.x 中找到了“approxQuantile”,但在 pyspark 1.6.0 中没有找到任何此类
我的示例输入:
df.show()
+-----------+----------+---------------+--------------+------------------------+
| id | col_1 |col_2 |col_3 |col_4 |
+-----------+----------+---------------+--------------+------------------------+
|1.10919E+16|3988487.35| -236751.43| -362208.07| 0.660000|
|1.10919E+16|3988487.35| -236751.43| -362208.07| 0.900000|
|1.10919E+16|3988487.35| -236751.43| -362208.07| 0.660000|
|1.10919E+16| 36718.55| null| null| 0.860000|
|1.10919E+16| 36718.55| null| null| 0.780000|
|1.10919E+16| 36718.55| null| null| 0.660000|
|1.10919E+16| 36718.55| null| null| 0.900000|
|1.10919E+16| 36718.55| null| null| 0.660000|
df.collect()
[Row(id=u'1.11312E+16', col_1=Decimal('367364.44'), col_2=Decimal('-401715.23'), col_3=Decimal('-1649917.53'), col_4=Decimal('0.080000')),
Row(id=u'1.11312E+16', col_1=Decimal('367364.44'), col_2=Decimal('-401715.23'), col_3=Decimal('-1649917.53'), col_4=Decimal('0.780000')),
Row(id=u'1.11312E+16', col_1=Decimal('367364.44'), col_2=Decimal('-401715.23'), col_3=Decimal('-1649917.53'), col_4=Decimal('0.780000')),
Row(id=u'1.11312E+16', col_1=Decimal('367364.44'), col_2=Decimal('-401715.23'), col_3=Decimal('-1649917.53'), col_4=Decimal('0.860000')),
Row(id=u'1.11312E+16', col_1=Decimal('367364.44'), col_2=Decimal('-401715.23'), col_3=Decimal('-1649917.53'), col_4=Decimal('0.330000'))]
我必须为所有输入列循环上述逻辑。
for var in df.columns:
bindt = df[df[var].notnull()][var].quantile([0,.1,.2,.3,.4,.5,.6,.7,.8,.9,1]).unique()
df['{0}_quartile'.format(var)] = pd.cut(df[var], bindt, labels=False, include_lowest=True )
谁能建议如何在 pyspark 1.6 dataframe 中重写上述代码。
提前致谢
最佳答案
如果您使用的是 pyspark 2.x,则可以使用 QuantileDiscretizer来自使用 approxQuantile() 的 ml lib和 Bucketizer在幕后。
但是,由于您使用的是 pyspark 1.6.x,因此您需要:
您可以通过两种方式找到分位数值:
通过计算 percent_rank() 来计算列的百分位数并提取百分位值接近所需分位数的列值
关注the methods in this answer其中解释了如何使用 pyspark < 2.0.0
这是我的近似分位数值的示例实现:
from pyspark.sql import functions as F
from pyspark.sql import Window
def compute_quantiles(df, col, quantiles):
quantiles = sorted(quantiles)
# 1. compute percentile
df = df.withColumn("percentile", F.percent_rank().over(Window.orderBy(col)))
# 2. categorize quantile based on the desired quantile and compute errors
df = df.withColumn("percentile_cat1", F.lit(-1.0))
df = df.withColumn("percentile_err1", F.lit(-1.0))
df = df.withColumn("percentile_cat2", F.lit(-1.0))
df = df.withColumn("percentile_err2", F.lit(-1.0))
# check percentile with the lower boundaries
for idx in range(0, len(quantiles)-1):
q = quantiles[idx]
df = df.withColumn("percentile_cat1", F\
.when( (F.col("percentile_cat1") == -1.0) &
(F.col("percentile") <= q), q)\
.otherwise(F.col("percentile_cat1")))
df = df.withColumn("percentile_err1", F\
.when( (F.col("percentile_err1") == -1.0) &
(F.col("percentile") <= q),
F.pow(F.col("percentile") - q, 2))\
.otherwise(F.col("percentile_err1")))
# assign the remaining -1 values in the error to the largest squared error of 1
df = df.withColumn("percentile_err1", F\
.when(F.col("percentile_err1") == -1.0, 1)\
.otherwise(F.col("percentile_err1")))
# check percentile with the upper boundaries
for idx in range(1, len(quantiles)):
q = quantiles[idx]
df = df.withColumn("percentile_cat2", F\
.when((F.col("percentile_cat2") == -1.0) &
(F.col("percentile") <= q), q)\
.otherwise(F.col("percentile_cat2")))
df = df.withColumn("percentile_err2",F\
.when((F.col("percentile_err2") == -1.0) &
(F.col("percentile") <= q),
F.pow(F.col("percentile") - q, 2))\
.otherwise(F.col("percentile_err2")))
# assign the remaining -1 values in the error to the largest squared error of 1
df = df.withColumn("percentile_err2", F\
.when(F.col("percentile_err2") == -1.0, 1)\
.otherwise(F.col("percentile_err2")))
# select the nearest quantile to the percentile
df = df.withColumn("percentile_cat", F\
.when(F.col("percentile_err1") < F.col("percentile_err2"),
F.col("percentile_cat1"))\
.otherwise(F.col("percentile_cat2")))
df = df.withColumn("percentile_err", F\
.when(F.col("percentile_err1") < F.col("percentile_err2"),
F.col("percentile_err1"))\
.otherwise(F.col("percentile_err2")))
# 3. approximate quantile values by choosing the value with the lowest error at each percentile category
df = df.withColumn("approx_quantile", F\
.first(col).over(Window\
.partitionBy("percentile_cat")\
.orderBy(F.asc("percentile_err"))))
return df
def extract_quantiles(df):
df_quantiles = df.select("percentile_cat", "approx_quantile").distinct()
rows = df_quantiles.collect()
quantile_values = [ row.approx_quantile for row in rows ]
return quantile_values
我想从上面实现的是计算列中每一行的百分位数,并将其分类到最接近的分位数。可以通过选择与百分位数具有最低差异(平方误差)的最低分位数类别来将百分位数分类为最接近的分位数。
<强>1。计算百分位数首先,我使用 percent_rank() 计算列的百分位数, 一个 Window function在 pyspark 中。您可以将 Window 视为数据的分区规范。由于percent_rank()
是Window函数,所以需要传入Window。
最接近百分位数的分位数类别可以低于、等于或高于。因此,我需要两次计算误差:第一次将百分位数与分位数下限进行比较,第二次将其与分位数上限进行比较。请注意,≤ 运算符用于检查百分位数是否小于或等于 边界。在知道百分位数的直接上下分位数边界后,我们可以通过选择低于或等于或高于或等于误差最小的分位数类别,将百分位数分配给最近的分位数类别。
<强>3。近似分位数一旦我们知道每个百分位数的所有最接近的分位数类别,我们就可以近似分位数值:它是每个分位数类别中误差最低的值。可以使用 first()
计算此近似分位数值使用 Window 在每个类别分区上运行函数.接下来,要提取分位数值,我们只需从数据框中选择唯一的 percentileCategory-approxQuantileValue 对。
在使用 desired_quantiles = [0.0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.0]
测试我的数据(~10000 行)后,我发现我的示例实现非常接近 approxQuantile
结果。当我减少提供给 approxQuantile
的误差时,两个结果值变得更接近。
使用 extract_quantiles(compute_quantile(df, col, quantiles))
:
使用 approxQuantile
:
找到分位数后,您可以使用 pyspark 的 Bucketizer 根据分位数对值进行分桶。 Bucketizer 在两个 pyspark 1.6.x 中都可用 [1] [2]和 2.x [3] [4]
这是一个如何执行分桶的示例:
from pyspark.ml.feature import Bucketizer
bucketedData = df
desired_quantiles = [0.0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.0] # must be sorted
for col in df.columns:
quantile_values = extract_quantiles(compute_quantiles(df, col, desired_quantiles))
splits = [ boundary_values ] # replace this with quantile_values
bucketizer = Bucketizer()\
.setInputCol(col)\
.setOutputCol("{}_quantile".format(col))\
.setSplits(splits)
bucketedData = bucketizer.transform(bucketedData)
您可以将 value_boundaries
替换为您在第 1 步中找到的分位数值或您想要的任何桶分割范围。当您使用 bucketizer 时,整个列值范围必须包含在拆分中。否则,指定拆分之外的值将被视为错误。如果您不确定该值,则必须显式提供无限值,例如 -float("inf")
、float("inf")
以涵盖所有 float 值数据的边界。
关于python - pyspark 1.6 中 Pandas 分位数和切割的替代方法是什么,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54803107/
我正在处理一组标记为 160 个组的 173k 点。我想通过合并最接近的(到 9 或 10 个组)来减少组/集群的数量。我搜索过 sklearn 或类似的库,但没有成功。 我猜它只是通过 knn 聚类
我有一个扁平数字列表,这些数字逻辑上以 3 为一组,其中每个三元组是 (number, __ignored, flag[0 or 1]),例如: [7,56,1, 8,0,0, 2,0,0, 6,1,
我正在使用 pipenv 来管理我的包。我想编写一个 python 脚本来调用另一个使用不同虚拟环境(VE)的 python 脚本。 如何运行使用 VE1 的 python 脚本 1 并调用另一个 p
假设我有一个文件 script.py 位于 path = "foo/bar/script.py"。我正在寻找一种在 Python 中通过函数 execute_script() 从我的主要 Python
这听起来像是谜语或笑话,但实际上我还没有找到这个问题的答案。 问题到底是什么? 我想运行 2 个脚本。在第一个脚本中,我调用另一个脚本,但我希望它们继续并行,而不是在两个单独的线程中。主要是我不希望第
我有一个带有 python 2.5.5 的软件。我想发送一个命令,该命令将在 python 2.7.5 中启动一个脚本,然后继续执行该脚本。 我试过用 #!python2.7.5 和http://re
我在 python 命令行(使用 python 2.7)中,并尝试运行 Python 脚本。我的操作系统是 Windows 7。我已将我的目录设置为包含我所有脚本的文件夹,使用: os.chdir("
剧透:部分解决(见最后)。 以下是使用 Python 嵌入的代码示例: #include int main(int argc, char** argv) { Py_SetPythonHome
假设我有以下列表,对应于及时的股票价格: prices = [1, 3, 7, 10, 9, 8, 5, 3, 6, 8, 12, 9, 6, 10, 13, 8, 4, 11] 我想确定以下总体上最
所以我试图在选择某个单选按钮时更改此框架的背景。 我的框架位于一个类中,并且单选按钮的功能位于该类之外。 (这样我就可以在所有其他框架上调用它们。) 问题是每当我选择单选按钮时都会出现以下错误: co
我正在尝试将字符串与 python 中的正则表达式进行比较,如下所示, #!/usr/bin/env python3 import re str1 = "Expecting property name
考虑以下原型(prototype) Boost.Python 模块,该模块从单独的 C++ 头文件中引入类“D”。 /* file: a/b.cpp */ BOOST_PYTHON_MODULE(c)
如何编写一个程序来“识别函数调用的行号?” python 检查模块提供了定位行号的选项,但是, def di(): return inspect.currentframe().f_back.f_l
我已经使用 macports 安装了 Python 2.7,并且由于我的 $PATH 变量,这就是我输入 $ python 时得到的变量。然而,virtualenv 默认使用 Python 2.6,除
我只想问如何加快 python 上的 re.search 速度。 我有一个很长的字符串行,长度为 176861(即带有一些符号的字母数字字符),我使用此函数测试了该行以进行研究: def getExe
list1= [u'%app%%General%%Council%', u'%people%', u'%people%%Regional%%Council%%Mandate%', u'%ppp%%Ge
这个问题在这里已经有了答案: Is it Pythonic to use list comprehensions for just side effects? (7 个答案) 关闭 4 个月前。 告
我想用 Python 将两个列表组合成一个列表,方法如下: a = [1,1,1,2,2,2,3,3,3,3] b= ["Sun", "is", "bright", "June","and" ,"Ju
我正在运行带有最新 Boost 发行版 (1.55.0) 的 Mac OS X 10.8.4 (Darwin 12.4.0)。我正在按照说明 here构建包含在我的发行版中的教程 Boost-Pyth
学习 Python,我正在尝试制作一个没有任何第 3 方库的网络抓取工具,这样过程对我来说并没有简化,而且我知道我在做什么。我浏览了一些在线资源,但所有这些都让我对某些事情感到困惑。 html 看起来
我是一名优秀的程序员,十分优秀!