gpt4 book ai didi

azure - 如何读取大型 JSON 文件作为 Azure 流分析的输入

转载 作者:行者123 更新时间:2023-12-03 02:51:13 30 4
gpt4 key购买 nike

我提供了一个 5 MB 大小的 JSON 文件作为 Azure 流分析的输入,但收到以下错误。

“所选文件‘文件名’必须介于 1 到 2097152 字节之间”

选择的流单元数量为3。如何让流分析读取大的Json文件作为输入?

最佳答案

我认为这是ASA作业测试的限制,您只能在查询编辑器中上传2M以下的json文件。

enter image description here

基于statements在官方文档中。

For scenarios with large quantities of unstructured data to store in the cloud, Azure Blob storage offers a cost-effective and scalable solution. Data in Blob storage is usually considered data at rest; however, blob data can be processed as a data stream by Stream Analytics.

我建议您将大尺寸的 json 文件存储到 blob 存储中,它将作为数据流进行处理。

关于azure - 如何读取大型 JSON 文件作为 Azure 流分析的输入,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56036696/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com