gpt4 book ai didi

recursion - 是否可以限制 S3 存储桶中递归目录列表的深度?

转载 作者:行者123 更新时间:2023-12-04 15:49:40 25 4
gpt4 key购买 nike

我使用了以下命令:

aws s3 ls s3://mybucket/mydir --recursive > bigfile

生成的文件太大 (9.5MB),无法方便地使用,因为我需要注意我正在寻找的信息。

我真正需要的只是下面三个级别的信息。是否可以调整此命令,以便我只向下递归 N 个级别而不是向下递归每个目录?我没有看到任何类似 -maxdepth 的东西对于 S3 CLI ls 命令

更新:这是我最终用来获取所需信息的命令,尽管我对此并不满意。当我只想要 40 个左右的唯一值时,它仍然给了我 77000 个结果,但它足够短,可以移植到 excel 并通过文本到列缩减并删除重复项。
 aws s3 ls s3://mybucket/mydir --human-readable --summarize --recursive | egrep '*_keytext_*' | tr -s ' ' | cut -d' ' -f5 >smallerfile

最佳答案

Amazon S3 没有“级别”的概念。它是一个平面存储系统,路径是对象名称(Key)的一部分。但是,某些 API 调用支持指定 Prefix 的能力。 ,它可以像查看特定目录一样操作。

使用 aws s3 ls 的替代方法是使用 Amazon S3 Inventory ,它可以提供列出存储桶内容的每日 CSV 文件。

关于recursion - 是否可以限制 S3 存储桶中递归目录列表的深度?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54355421/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com