gpt4 book ai didi

regex - 如何以不区分大小写的方式将文件复制到 HDFS

转载 作者:可可西里 更新时间:2023-11-01 16:51:36 33 4
gpt4 key购买 nike

我必须将某些 CSV 文件复制到 HDFS 格式ABCDWXYZ.csv即。 PERSONDETAILS.csv,我必须将它复制到名称为 AbcdWxyz 的 HDFS 目录,即 PersonDetails。

现在的问题是我没有确切的 HDFS 目录名称,我在修剪它并启动后从 CSV 文件中获取它

Hadoop fs -put $localRootDir/$Dir/*.csv $HDFSRootDir/$Dir

但它会抛出一个错误,因为在 HDFS 中没有这样的目录,所有字母都是大写的。

现在如何将文件复制到 HDFS?有没有办法使用正则表达式或 native 使 Hadoop put 命令不区分大小写。或者有没有一种方法可以将字符串转换为所需的 CamelCase

最佳答案

你应该可以使用

hadoop fs -find / -iname $Dir -print

获取 HDFS 中存在的正确拼写的路径名。然后将其反馈到您的复制命令中。

关于regex - 如何以不区分大小写的方式将文件复制到 HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32653004/

33 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com