gpt4 book ai didi

dataframe - Databricks - FileNotFoundException

转载 作者:行者123 更新时间:2023-12-05 06:23:34 26 4
gpt4 key购买 nike

如果这是基本的,我很抱歉,我错过了一些简单的东西。我正在尝试运行下面的代码以遍历文件夹中的文件并将所有以特定字符串开头的文件合并到数据框中。所有文件都放在一个湖中。

file_list=[]
path = "/dbfs/rawdata/2019/01/01/parent/"
files = dbutils.fs.ls(path)
for file in files:
if(file.name.startswith("CW")):
file_list.append(file.name)
df = spark.read.load(path=file_list)

# check point
print("Shape: ", df.count(),"," , len(df.columns))
db.printSchema()

这对我来说看起来不错,但显然这里有问题。我在这一行遇到错误:
files = dbutils.fs.ls(路径)

错误信息如下:

java.io.FileNotFoundException: File/6199764716474501/dbfs/rawdata/2019/01/01/parent does not exist.

路径、文件和其他一切都肯定存在。我尝试使用和不使用“dbfs”部分。会不会是权限问题?还有别的吗?我用谷歌搜索了一个解决方案。仍然无法获得牵引力。

最佳答案

如果您的父文件夹从“rawdata”开始,请确保您有一个名为“dbfs”的文件夹,路径应为“/rawdata/2019/01/01/parent”或“rawdata/2019/01/01/parent” .

如果路径不正确,则会抛出错误。

关于dataframe - Databricks - FileNotFoundException,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58221159/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com