gpt4 book ai didi

hash - 如何为每行 rdd 生成哈希? (PYSPARK)

转载 作者:行者123 更新时间:2023-12-01 09:49:47 33 4
gpt4 key购买 nike

正如问题中所指定的,我正在尝试为 RDD 的每一行生成一个哈希值。出于我的目的,我不能使用 zipWithUniqueId()方法,对于 RDD 的每一行,我需要所有列的一个哈希值。

for row in DataFrame.collect():
return hashlib.sha1(str(row))

我知道这是最糟糕的方式,迭代到 rdd,但我是 pyspark 的初学者。然而问题是:我为每一行获得相同的哈希值。我尝试使用强抗碰撞散列函数,但它太慢了。
有没有办法解决这个问题?
提前致谢 :)

最佳答案

退房 pyspark.sql.functions.sha2(col, numBits)它返回 SHA-2 系列哈希函数(SHA-224、SHA-256、SHA-384 和 SHA-512)的十六进制字符串结果

从 Spark v1.5 开始可用

import pyspark.sql.functions as F
df2 = df.withColumn('my_col_hashed', F.sha2(F.col('my_col'), 256))

关于hash - 如何为每行 rdd 生成哈希? (PYSPARK),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40344976/

33 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com