gpt4 book ai didi

hadoop - 如何在Apache Spark中为文本文件创建HDFS?

转载 作者:行者123 更新时间:2023-12-02 22:09:12 24 4
gpt4 key购买 nike

这是我第一次处理大数据并使用集群。

为了在从节点之间分配字节,我读到将HDFS与Apache spark一起使用很容易。

如何创建HDFS?

最佳答案

如果您只是想试验和学习,即使没有HDFS,也可以使用Apache Spark处理文件。看看Spark Quick Start

如果确实需要HDFS集群,那么最好的选择是安装大型Hadoop发行版之一。 ClouderaHortonworksMapR均提供简单且免费的安装程序和付费支持服务。

关于hadoop - 如何在Apache Spark中为文本文件创建HDFS?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36595821/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com