- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我很难理解如何使用 pyspark 将文件导入为库。
假设我有以下内容
生日快乐.py
def run():
print('Happy Birthday!')
sparky.py
from pyspark import SparkContext, SparkConf
from pyspark.sql import SparkSession
import HappyBirthday
sc = SparkContext(appName="kmeans")
HappyBirthday.run()
sc.stop()
并且它们都存储在S3中的同一个文件夹中。
我如何确保,当我使用
spark-submit --deploy-mode cluster s3://<PATH TO FILE>/sparky.py
, HappyBirthday.py 也导入了吗?
最佳答案
如果您尝试运行 sparky.py 并使用 HappyBirthday.py 中的一个函数,您可以尝试类似这样的操作。
spark-submit \
--deploy-mode cluster --master yarn \
--py-files s3://<PATH TO FILE>/HappyBirthday.py \
s3://<PATH TO FILE>/sparky.py
请记住,s3 没有“文件夹”的概念,因此您只需要提供文件或文件组的确切路径即可。
如果您的项目中有一大堆依赖项,您可以将它们与必要的 init.py 文件一起打包到一个 .zip 文件中,并且您可以导入任何函数在图书馆里。
例如 - 我有 sqlparse 库作为依赖项,里面有一堆 python 文件。我有一个压缩包文件,如下所示。
unzip -l packages.zip
Archive: packages.zip
0 05-05-2019 12:44 sqlparse/
2249 05-05-2019 12:44 sqlparse/__init__.py
5916 05-05-2019 12:44 sqlparse/cli.py
...
110 05-05-2019 12:44 sqlparse-0.3.0.dist-info/WHEEL
--------- -------
125034 38 files
这会上传到 S3,然后在作业中使用。
spark-submit --deploy-mode cluster --master yarn --py-files s3://my0-test-bucket/artifacts/packages.zip s3://my-test-script/script/script.py
我的文件可以包含如下导入。
import pyspark
import sqlparse # Importing the library
from pprint import pprint
关于pyspark - AWS EMR 从 S3 导入 pyfile,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53685939/
我很难理解如何使用 pyspark 将文件导入为库。 假设我有以下内容 生日快乐.py def run(): print('Happy Birthday!') sparky.py from p
我很难理解如何使用 pyspark 将文件导入为库。 假设我有以下内容 生日快乐.py def run(): print('Happy Birthday!') sparky.py from p
在交互式 pyspark session 中,您可以通过 sc.addPyFile('file_location') 导入 python 文件。如果您需要对该文件进行更改并保存它们,是否有任何方法可以
vim 脚本文件通过以下方式调用 python 脚本: let s:pyscript = resolve(expand(':p:h:h')) . '/pyscript/deploy.py' echom
我是一名优秀的程序员,十分优秀!