gpt4 book ai didi

bash - 如何存储/*url* 的实际名称?

转载 作者:行者123 更新时间:2023-12-02 21:58:24 25 4
gpt4 key购买 nike

我正在将脚本转换为 HDFS (Hadoop),并且我有这个 cmd:

    tail -n+$indexedPlus1 $seedsDir/*url* | head -n$it_size > $it_seedsDir/urls

使用 HDFS,我需要使用 -get 获取文件,这很有效。
bin/hadoop dfs -get $seedsDir/*url* .

但是我不知道下载的文件名是什么,更不用说我想存储在 $local_seedsDir/url 中了。
我可以知道吗?

亲吻告诉我:
bin/hadoop dfs -get $seedsDir/*url* $local_seedsDir/urls

即只需在本地将文件命名为 url。

最佳答案

url=`echo bin/hadoop dfs -get urls-input/MR6/*url* .`

然后 tail 和 head 从 url 中提取实际文件名并将其存储在 $urls
rm $urls

但除此之外,就 KISS

关于bash - 如何存储/*url* 的实际名称?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5464382/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com