gpt4 book ai didi

azure - ftp 到 azure 存储 blob(触发处理)

转载 作者:行者123 更新时间:2023-12-03 00:27:00 24 4
gpt4 key购买 nike

我想将加密文件从 ftp 服务器 传输到“azure blob 存储容器”

这是有问题的工作流程:

CSV encrypted files on Ftp server ---------->Trigger(example: On adding files)----------> call to some local programs or api that process decryption and then create the output csv file in the blob container

文件的结构如下:

   Input CSV file:
column1;column2;column3;
encryptedvalue1;encryptedvalue2;encryptedvalue3;

Output csv file:
column1;column2;column3;
value1;value2;value3;

这里没有文件内容转换,但还有一件事我不知道它是否可行:

我想根据例如column1值将新的blob添加到特定文件夹下。 (例如,通过代码管理 blob 容器的层次结构)

我尝试创建一个逻辑应用并创建ftp触发器作为第一步,但我无法弄清楚什么最适合作为我的案例的第二步。

我看到了很多建议,例如使用网络作业,其他建议用于 azure 功能和 azure 应用程序服务...

因为我对这些 Azure 结构比较陌生,所以我来这里是为了询问这样做的最佳方法以及为什么?

使用Web Job更好吗?或 azure 函数?或者只是创建一个 HttpRequest ?这是为什么?

我已经采取了正确的方法吗? 逻辑应用是允许我这样做的最佳方式吗?

注意:编辑

文件大小约为一些 Mb(不是很大)带有“;”的 CSV 文件作为分隔符输入是 ftp 服务器上的 csv 文件,输出是 azure blob 存储上特定“文件夹”下的解密 csv 文件

任何帮助将不胜感激

最佳答案

在 Azure Webjobs 和 Azure Function 之间进行选择时,应考虑几个关键因素。

Azure Functions 有两种类型的计费方案:消费计划和应用服务计划。

在消费中,您只需为函数运行时的时间付费,但是,根据消费计划,您的函数运行时间不能超过 10 分钟。这意味着,如果您的作业运行时间超过 10 分钟,消耗计划不适合您。

应用服务计划与 Azure Web 作业使用的计划相同,这里没有时间限制(根据文档)。

一般来说,当您需要具有不同触发器的灵活逻辑等时,Azure Functions 非常有用。

关于azure - ftp 到 azure 存储 blob(触发处理),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55762002/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com