gpt4 book ai didi

Azure 数据工厂 - 写入 blob 存储时间歇性出现 400 错误

转载 作者:行者123 更新时间:2023-12-03 04:25:46 29 4
gpt4 key购买 nike

我正在使用带有 blob 存储的数据工厂。

我有时会间歇性地收到以下错误 - 这可能发生在不同的管道/数据源上。但是,无论哪个任务失败,我总是遇到相同的错误 - 400 指定的阻止列表无效。

Copy activity encountered a user error at Sink side: ErrorCode=UserErrorBlobUploadFailed,'Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,Message=Error occurred when trying to upload blob 'https://blob.core.windows.net/', detailed message: The remote server returned an error: (400) Bad Request.,Source=,''Type=Microsoft.WindowsAzure.Storage.StorageException,Message=The remote server returned an error: (400) Bad Request.,Source=Microsoft.WindowsAzure.Storage,StorageExtendedMessage=The specified block list is invalid. Type=System.Net.WebException,Message=The remote server returned an error: (400) Bad Request.,Source=Microsoft.WindowsAzure.Storage

如果一次有多个任务正在运行并将数据写入存储,这似乎是最常见的。我可以做些什么来使这个过程更加可靠吗?是否有可能配置错误?它导致数据工厂中的切片失败,所以我真的很想知道我应该调查什么。

遇到此问题的示例管道:

{
"$schema": "http://datafactories.schema.management.azure.com/schemas/2015-09-01/Microsoft.DataFactory.Pipeline.json",
"name": "Pipeline",
"properties": {
"description": "Pipeline to copy Processed CSV from Data Lake to blob storage",
"activities": [
{
"type": "Copy",
"typeProperties": {
"source": {
"type": "AzureDataLakeStoreSource"
},
"sink": {
"type": "BlobSink",
"writeBatchSize": 0,
"writeBatchTimeout": "00:00:00"
}
},
"inputs": [ { "name": "DataLake" } ],
"outputs": [ { "name": "Blob" } ],
"policy": {
"concurrency": 10,
"executionPriorityOrder": "OldestFirst",
"retry": 0,
"timeout": "01:00:00"
},
"scheduler": {
"frequency": "Hour",
"interval": 1
},
"name": "CopyActivity"
}
],
"start": "2016-02-28",
"end": "2016-02-29",
"isPaused": false,
"pipelineMode": "Scheduled"
}
}

我只使用 LRS 标准存储,但我仍然不希望它间歇性地抛出错误。

编辑:添加链接服务 json

{
"$schema": "http://datafactories.schema.management.azure.com/schemas/2015-09-01/Microsoft.DataFactory.LinkedService.json",
"name": "Ls-Staging-Storage",
"properties": {
"type": "AzureStorage",
"typeProperties": {
"connectionString": "DefaultEndpointsProtocol=https;AccountName=;AccountKey="
}
}
}

最佳答案

此类错误主要是由赛车问题引起的。例如。多个并发事件运行写入同一个 blob 文件。

您能否进一步检查一下您的管道设置是否是这种情况?如果是这样,请避免这样的设置。

关于Azure 数据工厂 - 写入 blob 存储时间歇性出现 400 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43546814/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com