gpt4 book ai didi

hadoop - 未使用流集将文件从本地加载到HDFS中(已成功验证!)

转载 作者:行者123 更新时间:2023-12-02 20:31:59 27 4
gpt4 key购买 nike

我刚刚开始使用流集,并且试图将文本文件从本地加载到HDFS。
请注意:我正在使用Cloudera Manager,这是“core-site.xml”的 View :

<property>
<name>hadoop.ssl.server.conf</name>
<value>ssl-server.xml</value>
<final>true</final>
</property>
<property>
<name>hadoop.ssl.client.conf</name>
<value>ssl-client.xml</value>
<final>true</final>
</property>
<property>
<name>hadoop.proxyuser.sdc.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.sdc.groups</name>
<value>*</value>
</property>
</configuration>

本地文件是存储在“/ home / cloudera / Desktop”中的文本文件。

这是Streamsets中源(本地)配置的 View :

这是Streamsets中Hadoop fs配置的 View :

已成功验证!

在播放了pipline之后,应该在我指定的HDFS目录中找到文件,尤其是在“/ user / cloudera”目录中。

但是,当我运行它时,该文件尚未加载。

我确定我错过了一些东西,但是我找不到答案。
能否请你帮忙!

谢谢,

最佳答案

您需要发挥作用,而不仅仅是验证它。

关于hadoop - 未使用流集将文件从本地加载到HDFS中(已成功验证!),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52927842/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com