- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在 azure synapse 中使用 pyspark 创建笔记本来创建 parquet 文件。
运行时,我收到以下错误原因:org.apache.hadoop.fs.azure.AzureException: com.microsoft.azure.storage.StorageException: 在非空目录上不允许此操作。我的目录是空了,我去检查文件夹,里面写了一些文件,但几分钟后出现错误。
感谢您的关注。
我使用以下代码
df.write.mode('overwrite').parquet(path)
最佳答案
我尝试了相同的代码df.write.mode('overwrite').parquet(path)
并且我遇到了与您收到的相同的错误。
为了解决这个问题,我尝试了从位于 source 容器的 "dir1/CSV" 目录中的 CSV 文件读取数据的方法>Azure Data Lake Storage Gen2,将其转换为DataFrame,然后将其写回到“destination”容器的“dir1/”目录中 Parquet 格式。
下面是代码:
sourceaccountname ="synapsestorageaug02"
Sourcecontainer= "source"
SourceLinked Service = "AzureDataLakeStorage_ls"
Sourcefilelocation = " dir1/CSV"
Destinationaccountname="synapsestorageaug02"
destinationcontainer="destination"
destinationfile="dir1/"
spark.conf.set('spark.storage.synapse.linkedServiceName','AzureDataLakeStorage_ls')
spark.conf.set('fs.azure.account.oauth.provider.type','com.microsoft.azure.synapse.tokenlibrary.LinkedServiceBasedTokenProvider')
df= f'abfss://<a href="https://stackoverflow.com/cdn-cgi/l/email-protection" class="__cf_email__" data-cfemail="e3908c96918086a3909a8d8293908690978c91828486829684d3d1cd878590cd808c9186cd948a8d878c9490cd8d8697" rel="noreferrer noopener nofollow">[email protected]</a>/'
print(df)
mssparkutils.fs.ls(df)
File= f'abfss://<a href="https://stackoverflow.com/cdn-cgi/l/email-protection" class="__cf_email__" data-cfemail="63100c1611000623101a0d0213100610170c1102040602160453514d0705104d000c11064d140a0d070c14104d0d0617" rel="noreferrer noopener nofollow">[email protected]</a>/dir1/CSV'
print(File)
source_df = spark.read.format('csv').option('header','true').option('inferschema','true').load(File)
source_df.show()
destpath = f'abfss://<a href="https://stackoverflow.com/cdn-cgi/l/email-protection" class="__cf_email__" data-cfemail="67030214130e0906130e080927141e090617140214130815060002061200575549030114490408150249100e090308101449090213" rel="noreferrer noopener nofollow">[email protected]</a>/dir1/'
source_df.write.mode('overwrite').format('Parquet').option('header','true').save(destpath)
在上面的代码中,我为 ADLS GEN 2 创建了链接服务并提供了所需的访问权限
了解更多关于 Secure credentials with linked services using the mssparkutils
注意: 确保 synapse 系统具有该存储帐户的 Blob 存储数据提供者访问权限。您尝试访问的用户和服务 (ASA) 需要 Blob 存储数据贡献者访问权限。
要使用链接服务设置存储帐户和 Synapse 之间的连接,您可以使用以下代码:
spark.conf.set('spark.storage.synapse.linkedServiceName','AzureDataLakeStorage_ls')
spark.conf.set('fs.azure.account.oauth.provider.type','com.microsoft.azure.synapse.tokenlibrary.LinkedServiceBasedTokenProvider')
df= f'abfss://<a href="https://stackoverflow.com/cdn-cgi/l/email-protection" class="__cf_email__" data-cfemail="483b273d3a2b2d083b312629383b2d3b3c273a292f2d293d2f787a662c2e3b662b273a2d663f21262c273f3b66262d3c" rel="noreferrer noopener nofollow">[email protected]</a>/'
print(df)
mssparkutils.fs.ls(df)
上面的代码显示了我们必须使用的容器中的目录
destpath = f'abfss://<a href="https://stackoverflow.com/cdn-cgi/l/email-protection" class="__cf_email__" data-cfemail="87e3e2f4f3eee9e6f3eee8e9c7f4fee9e6f7f4e2f4f3e8f5e6e0e2e6f2e0b7b5a9e3e1f4a9e4e8f5e2a9f0eee9e3e8f0f4a9e9e2f3" rel="noreferrer noopener nofollow">[email protected]</a>/dir1/' source_df.write.mode('overwrite').format('Parquet').option('header','true').save(destpath)
上面的代码以Parquet格式将source_df DataFrame写入目标路径。它使用 write.mode('overwrite') 覆盖任何现有数据,使用 format('Parquet') 将输出格式指定为 Parquet,并使用 option('header ','true') 将 header 包含在 Parquet 文件中。最后,使用save(destpath)将数据保存到目标路径。
输出:
关于azure - 无法从 Azure Spark 群集写入 Blob 存储,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/76823799/
我有这个代码 var myChart = new FusionCharts("../themes/clean/charts/hbullet.swf", "myChartId", "400", "75
既然写入是立即进行的(复制到内核缓冲区并返回),那么使用 io_submit 进行写入有什么好处? 事实上,它 (aio/io_submit) 看起来更糟,因为您必须在堆上分配写入缓冲区并且不能使用基
我正在使用 mootool 的 Request.JSON 从 Twitter 检索推文。收到它后,我将写入目标 div 的 .innerHTML 属性。当我在本地将其作为文件进行测试时,即 file:
最终,我想将 Vertica DB 中的数据抓取到 Spark 中,训练机器学习模型,进行预测,并将这些预测存储到另一个 Vertica DB 中。 当前的问题是确定流程最后部分的瓶颈:将 Spark
我使用 WEKA 库编写了一个 Java 程序, 训练分类算法 使用经过训练的算法对未标记的数据集运行预测 将结果写入 .csv 文件 问题在于它当前写出离散分类结果(即算法猜测一行属于哪个类别)。我
背景 - 我正在考虑使用 clickonce 通过 clickonce(通过网站)部署 WinForms 应用程序。相对简单的应用程序的要素是: - 它是一个可执行文件和一个数据库文件(sqlite)
是否有更好的解决方案来快速初始化 C 数组(在堆上创建)?就像我们使用大括号一样 double** matrix_multiply(const double **l_matrix, const dou
我正在读取 JSON 文件,取出值并进行一些更改。 基本上我向数组添加了一些值。之后我想将其写回到文件中。当我将 JSONArray 写回文件时,会被写入字符串而不是 JSONArray 对象。怎样才
我为两个应用程序使用嵌入式数据库,其中一个是服务器,另一个是客户端。客户端应用程序。可以向服务器端发送获取数据请求以检索数据并显示在表格(或其他)中。问题是这样的:如何将获取的数据保存(写入)到页面文
是否有更好的解决方案来快速初始化 C 数组(在堆上创建)?就像我们使用大括号一样 double** matrix_multiply(const double **l_matrix, const dou
从问题得出问题:找到所有 result = new ArrayList(); for (int i = 2; i >(i%8) & 0x1) == 0) { result.add(i
由于某种原因,它没有写入 CSV。谁能明白为什么它不写吗? def main(): list_of_emails = read_email_csv() #read input file, cr
关闭。 这个问题是 not reproducible or was caused by typos 。它目前不接受答案。 这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能在这里出现,
我目前正在开发一个保存和加载程序,但我无法获得正确的结果。 编写程序: #include #include #define FILENAME "Save" #define COUNT 6 type
import java.io.*; public class Main2 { public static void main(String[] args) throws Exception {
我需要使用预定义位置字符串“Office”从所有日历中检索所有 iOS 事件,然后将结果写入 NSLog 和 UITextView。 到目前为止,这是我的代码: #import "ViewCo
我正在尝试将 BOOL 值写入 PFInstallation 中的列,但会不停地崩溃: - (IBAction)pushSwitch:(id)sender { NSUserDefaults *push
我以前在学校学过一些简单的数据库编程,但现在我正在尝试学习最佳实践,因为我正在编写更复杂的应用程序。写入 MySQL 数据库并不难,但我想知道让分布式应用程序写入 Amazon EC2 上的远程数据库
是否可以写回到ResourceBundle?目前我正在使用 ResourceBundle 来存储信息,在运行时使用以下内容读取信息 while(ResourceBundle.getBundle("bu
关闭。这个问题是not reproducible or was caused by typos .它目前不接受答案。 这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能是on-topi
我是一名优秀的程序员,十分优秀!