gpt4 book ai didi

csv - 通过 Apache-Spark 从 AWS S3 加载数据

转载 作者:行者123 更新时间:2023-12-04 18:03:17 25 4
gpt4 key购买 nike

我编写了一个 python 代码来通过 Apache-Spark 从 Amazon Web Service (AWS) S3 加载文件。具体来说,代码使用 SparkContext().wholeTextFiles("s3n ://若凡桶/数据")。代码如下:

import os, sys, inspect

### Current directory path.
curr_dir = os.path.split(inspect.getfile(inspect.currentframe()))[0]

### Setup the environment variables
spark_home_dir = os.path.realpath(os.path.abspath(os.path.join(curr_dir, "../spark-1.4.0")))
python_dir = os.path.realpath(os.path.abspath(os.path.join(spark_home_dir, "./python")))
os.environ["SPARK_HOME"] = spark_home_dir
os.environ["PYTHONPATH"] = python_dir

### Setup pyspark directory path
pyspark_dir = os.path.realpath(os.path.abspath(os.path.join(spark_home_dir, "./python")))
sys.path.append(pyspark_dir)

### Import the pyspark
from pyspark import SparkConf, SparkContext

def main():
### Initialize the SparkConf and SparkContext
conf = SparkConf().setAppName("ruofan").setMaster("local")
sc = SparkContext(conf = conf)

### Create a RDD containing metadata about files in directory "data"
datafile = sc.wholeTextFiles("s3n://ruofan-bucket/data") ### Read data directory from S3 storage.

### Collect files from the RDD
datafile.collect()


if __name__ == "__main__":
main()

在我运行我的代码之前,我已经导出了环境变量:AWS_SECRET_ACCESS_KEYAWS_ACCESS_KEY_ID。但是当我运行我的代码时,它显示错误:

IOError: [Errno 2] No such file or directory: 's3n://ruofan-bucket/data/test1.csv'

我确定我在 AWS S3 上有目录和文件,但我不知道错误。如果有人帮助我解决问题,我真的很感激。

最佳答案

wholeTextFiles 似乎不适用于 Amazon S3。

参见:

但是,Hadoop 版本之间可能存在差异,因此请不要将其视为确定。

关于csv - 通过 Apache-Spark 从 AWS S3 加载数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31575367/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com